WO2001093584A1 - Data processing system and method, communication system and method, and charging device and method - Google Patents

Data processing system and method, communication system and method, and charging device and method Download PDF

Info

Publication number
WO2001093584A1
WO2001093584A1 PCT/JP2001/004670 JP0104670W WO0193584A1 WO 2001093584 A1 WO2001093584 A1 WO 2001093584A1 JP 0104670 W JP0104670 W JP 0104670W WO 0193584 A1 WO0193584 A1 WO 0193584A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image
signal processing
user
communication system
Prior art date
Application number
PCT/JP2001/004670
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Yoshinori Watanabe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/048,759 priority Critical patent/US7313386B2/en
Publication of WO2001093584A1 publication Critical patent/WO2001093584A1/ja
Priority to US11/726,243 priority patent/US7869797B2/en
Priority to US11/888,268 priority patent/US7856227B2/en
Priority to US12/112,313 priority patent/US7966005B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M15/00Arrangements for metering, time-control or time indication ; Metering, charging or billing arrangements for voice wireline or wireless communications, e.g. VoIP
    • H04M15/68Payment of value-added services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/23Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234345Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234354Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering signal-to-noise ratio parameters, e.g. requantization
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234381Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the temporal resolution, e.g. decreasing the frame rate by frame skipping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/23805Controlling the feeding rate to the network, e.g. by controlling the video pump
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2402Monitoring of the downstream path of the transmission network, e.g. bandwidth available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • H04N21/2405Monitoring of the internal components or processes of the server, e.g. server load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2543Billing, e.g. for subscription services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/254Management at additional data server, e.g. shopping server, rights management server
    • H04N21/2543Billing, e.g. for subscription services
    • H04N21/25435Billing, e.g. for subscription services involving characteristics of content or additional data, e.g. video resolution or the amount of advertising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2215/00Metering arrangements; Time controlling arrangements; Time indicating arrangements
    • H04M2215/01Details of billing arrangements
    • H04M2215/0196Payment of value-added services, mainly when their charges are added on the telephone bill, e.g. payment of non-telecom services, e-commerce, on-line banking

Definitions

  • the present invention relates to a processing apparatus and a method for paying a usage fee according to transmitted / received data, and a method for transmitting / receiving data.
  • Scenario technology For example, use of data provided by a data provider and a user who uses the data provided by the data provider in a data providing service, etc.
  • Examples of the billing form when collecting from a user include a pay-as-you-go billing method based on the amount of data provided and a flat-rate billing method that does not depend on the amount of data provided.
  • USP 640 1 3 16 has low quality data that is normally provided, but it is possible for users to request higher quality data by adding usage fees. A network system has been demonstrated.
  • Japanese Patent Application Laid-Open No. H10-1646552 discloses, for example, a video demand transmission which enables supply of a video program corresponding to the image quality desired by a viewer and performs charging according to the desired image quality.
  • a device and a terminal device are disclosed.
  • the technology described in this publication uses a similar algorithm such as MPEG 1 or MPEG 2 as a processing method for determining the image quality of a supplied video program. The amount charged varies depending on whether a compressed video program was supplied.
  • the technology for changing the charging for the user according to the function of the application layer of the device, such as the signal processing method for the data supplied to the user has been demonstrated.
  • the device also has a function of recording and reproducing the hardware control layer such as supplying power to the internal circuit of the device.However, a system in which the user selectively enhances the function of the hardware control layer is not available. Not disclosed.
  • the present invention has been made in view of the above circumstances, and has made it possible to provide and charge data in accordance with various requests of users, that is, to charge a fee in accordance with profits received by users.
  • a data processing device and method, a charging management device and method, a communication system and method, a communication device, and a data processing device that enable a provider to realize appropriate charging according to the value of data provided. It is an object of the present invention to provide a storage medium storing a program executed by a data processing device and the like.
  • a data processing system proposed to achieve the above object includes an instruction input unit capable of instructing a desired method to at least an application layer and a hardware control layer.
  • a signal processing unit capable of selectively executing a method relating to an application layer
  • a hardware control unit capable of selectively executing a method relating to a hardware control layer
  • a command input unit capable of selectively executing a method relating to a hardware control layer
  • a control unit that controls the signal processing unit or the hardware control unit to execute the specified method.
  • the signal processing unit includes a storage unit that stores a plurality of methods. Then, the control unit reads out and executes one method from the storage unit according to the instruction from the instruction input unit.
  • the data processing system according to the present invention further includes a transmitting unit that transmits the content data, a receiving unit that receives the transmitted content data, and an output unit that outputs the received content data.
  • the signal processing unit executes a method specified in response to an instruction from the instruction input unit under the control of the control unit, thereby performing signal processing on the input content.
  • the content is output to the transmitter.
  • the present invention is a communication system provided with a charging management device, comprising: an instruction input unit capable of instructing a desired method to at least an ablation layer and a hardware control layer; and a method for requesting a method instructed by the instruction input unit.
  • Request signal transmission unit that sends request signals to be received, reception unit that receives replies to request signals, signal processing units that can selectively execute methods related to the application layer, and methods related to the hardware control layer.
  • a processing unit comprising: a hardware control unit that can be executed in a controlled manner; and a control unit that controls the signal processing unit or the hardware control unit to execute the specified method in accordance with an instruction from the instruction input unit.
  • a request signal receiving unit for receiving a request signal; a determining unit for determining whether a method can be used based on the received request signal; A determination result transmitting unit that transmits the determination result determined by the unit to the receiving unit; a usage fee storage unit that stores usage fee information of each of a plurality of methods stored by the signal processing unit or the hardware control unit; A billing management device including, based on the information stored in the usage fee storage unit, calculating money amount information indicating a billing amount to the user who instructs the instruction input unit, and calculating means for outputting the money amount information; Is provided.
  • a billing apparatus used in the present invention includes: a request signal receiving unit that receives, from an external device, a request signal for requesting permission of use of a desired method of an application layer and a hardware control layer of the external device; A judgment unit for judging whether the method can be used based on the request signal received by the control unit, a judgment result transmission unit for transmitting the judgment result of the judgment unit to the reception unit, and storing usage fee information of each of the plurality of methods. Based on the usage fee information stored in the usage fee storage unit and the usage fee information stored in the usage fee storage unit, amount information indicating a charge amount to the user instructing the instruction input unit is calculated, and the amount information is calculated. And an operation unit for outputting.
  • the calculation unit for calculating the amount information is based on the information stored in the usage fee storage unit. Then, the amount information is calculated based on the sum of the usage fee of the automatic selection method for automatically selecting one method from a plurality of methods and the usage fee of the method corresponding to the compression algorithm selected by the automatic selection method. .
  • the present invention is a communication system including a first communication device, a second communication device, and a billing processing device.
  • the first communication device constituting the communication system includes at least an application layer of a transmission device.
  • An instruction input unit capable of instructing a desired method to the hardware control layer of the receiving device; a request signal transmission unit for transmitting a request signal requesting the method specified by the instruction input unit; and a request signal transmission
  • a receiving unit that receives the content data processed by the method corresponding to the unit, a hardware control unit that can selectively execute a method related to the hardware control layer, and a command input unit.
  • the billing processing device includes: a usage fee storage unit that stores usage fee information of each of a plurality of methods included in the signal processing unit or the hardware control unit; and an instruction input unit based on the information stored in the usage fee storage unit.
  • a calculation unit that calculates the amount information indicating the amount of charge to the user who instructs the user and outputs the amount information.
  • the communication device used in the present invention is a communication device for communicating content data, and a receiving unit for receiving a request signal for requesting execution of a method of the application layer from the outside;
  • the signal processing unit that selectively executes the method and method related to the input and performs signal processing for the input content and the signal processing unit executes the specified method according to the signal in response to the received request a control unit for controlling to, and c and a transmitter for transmitting the signal processed Kontendzude Isseki outside
  • the present invention implements a communication method and the communication method performs communication of content de Isseki
  • a program for controlling a communication system the method and the program comprising: at least an application layer of the transmitting device and a hard drive of the receiving device; By transmitting a request signal requesting the specified method and command to the control layer, and executing the method in accordance with the transmitted request signal to the transmitting apparatus.
  • the signal processing means performs signal processing on the input content data, and transmits the signal-processed content data from the transmitting device to the receiving device.
  • the receiving device receives the transmitted content data, and a method executed by the hardware control unit controls power supply to an internal circuit of the receiving device according to the instructed method, and performs signal processing.
  • the usage fee storage means for storing usage fee information of each of a plurality of methods of the control unit or the hardware control unit. Output the amount information.
  • FIG. 1 is a block diagram showing a configuration example of a transmission system to which the present invention is applied.
  • FIG. 2 is a block diagram showing a transmission device constituting the transmission system shown in FIG. 1
  • FIG. 3 is a flowchart for explaining processing of the transmission device shown in FIG.
  • FIG. 4 is a block diagram showing a receiving device included in the communication system shown in FIG. 1
  • FIG. 5 is a flowchart for explaining processing of the receiving device shown in FIG.
  • FIG. 6 is a block diagram showing a transmission processing unit included in the transmission device shown in FIG.
  • FIG. 7 is a block diagram showing an encoding unit of the transmission processing unit shown in FIG.
  • FIG. 8A, 8B, and 8C are diagrams for explaining hierarchical encoding / decoding.
  • FIG. 9 is a flowchart for explaining the transmission processing by the transmission processing unit shown in FIG.
  • FIG. 10 is a block diagram illustrating a reception processing unit included in the receiving device illustrated in FIG. 4 c
  • FIG. 11 is a block diagram illustrating a decoding unit included in the reception processing unit illustrated in FIG. 10 c
  • 12 is a block diagram showing a configuration example of the combining processing unit of the receiving apparatus shown in FIG. 4 c
  • FIG. 13 is a flowchart for explaining the combining processing by the combining processing unit shown in FIG. Yat.
  • FIGS. 14A, 14B, and 14C are diagrams illustrating display examples of images on the image output unit of the receiving device illustrated in FIG.
  • FIG. 15A and FIG. 15B are diagrams for explaining the relationship between the spatial resolution and the temporal resolution of an image transmitted from the transmission device constituting the transmission system shown in FIG. 1 to the reception device.
  • FIG. 16 is a block diagram illustrating a configuration example of a main part of a control unit included in the transmission processing unit illustrated in FIG. 6 in a case where a point of interest is predicted.
  • FIG. 17 is a diagram used to describe a specific example of a feature amount that reflects a tendency of the user to pay attention.
  • FIG. 18 is a flowchart for explaining the operation of the control unit constituting the transmission processing unit shown in FIG. 6 when predicting a point of interest.
  • FIG. 19 is a block diagram for explaining a model of a billing process between a processing device in which a method is installed in advance and a management center.
  • FIG. 20 is a block diagram for explaining a model of a billing process when a method is acquired from a management center.
  • FIG. 21 is a block diagram showing a configuration of a main part of a transmitting device and a receiving device when a charging processing model is applied to an actual system configuration.
  • FIG. 22 is a flowchart for explaining the flow of processing in the transmitting apparatus shown in FIG. 21 when the charging processing model is applied to an actual system configuration.
  • FIG. 23 is a flowchart for explaining the flow of processing in the receiving apparatus shown in FIG. 21 when the charging processing model is applied to an actual system configuration.
  • FIG. 24 is a flowchart for explaining the flow of processing in the management center shown in FIG. 21 when the charging processing model is applied to an actual system configuration.
  • FIG. 25 is a flowchart for explaining the flow of processing by the optimization algorithm for automatic algorithm selection.
  • FIG. 26A and FIG. 26B are diagrams used to explain objects extracted from an image and their movements.
  • FIG. 27 is a flowchart for explaining the flow of the object code compression process. It is.
  • FIG. 28A and FIG. 28B are diagrams used to describe describing an image with a spatiotemporal model.
  • FIG. 29 is a block diagram showing a configuration example of a learning configuration for determining coefficients of a predictive coding circuit in a class classification adaptive prediction code.
  • FIG. 30 is a block diagram showing an example of a predictive coding circuit in a class classification adaptive prediction code.
  • FIG. 31 is a block diagram showing another example of the prediction coding circuit in the class classification adaptive prediction code.
  • FIG. 32 is a block diagram showing an example of a class classification circuit in a class classification adaptive prediction code.
  • FIG. 33 is a block diagram illustrating an example of a decoding device for the classification adaptive prediction code.
  • Fig. 34 is a diagram used to explain the concept of processing for each process (one clock) in automatic control of power consumption.
  • Fig. 35 is a flowchart for explaining the flow of determining whether or not to execute power control according to the processing method in the automatic power consumption control algorithm.
  • Fig. 36 shows the execution of the power control function.
  • 7 is a flowchart for explaining the flow of processing in the case of performing the operation.
  • FIG. 37 is a block diagram showing a computer to which the present invention is applied.
  • BEST MODE FOR CARRYING OUT THE INVENTION
  • PCT application publication number WO01 / 118989A1 already filed by the applicant of the present invention has a mouse or the like on a receiving side for receiving data.
  • an information amount control of a designated area there is disclosed an image processing apparatus which performs not only a spatial direction resolution control disclosed in Japanese Patent Application Laid-Open No. H10-112856 but also a time direction resolution control. ing.
  • PCT application publication number WO 0 1/1 1 There is disclosed an algorithm for extracting an object of interest from a user based on a position clicked with a mouse or the like and a time interval of the click.
  • technology that learns user preferences from the characteristics of objects that have become the user's interest in the past, automatically predicts the object of the user's interest, and improves the quality of the object image Is shown as a sword.
  • a data communication system to which the present invention is applied has a configuration as shown in FIG.
  • the system refers to a device in which a plurality of devices are logically assembled, and it does not matter whether the devices of each configuration are in the same housing.
  • the data communication system shown in FIG. 1 includes at least two terminals 1 and 2 composed of, for example, a mobile phone and a PHS (Personal Handy-phone System: registered trademark) or the like, and the terminal 1 or 2. And a radio base station 3 or 5 for transmitting and receiving signals by radio waves, and an exchange 4 such as a telephone station connecting the base stations 3 and 5 to each other.
  • the wireless base stations 3 and 5 are the same or different wireless base stations.
  • charging performed in accordance with data provision and data reception for example, data provision to terminal 1 and terminal 2 performed through management center 103 in FIG. 1 and communication between terminal 1 and terminal 2
  • data provision to terminal 1 and terminal 2 performed through management center 103 in FIG. 1 and communication between terminal 1 and terminal 2
  • management center 103 in FIG. 1 The flow of charging and the like according to the data transmission / reception and details of the system configuration therefor will be described later.
  • terminals 1 and 2 such as a mobile phone and a PHS have a key unit 8 for inputting telephone numbers, characters, symbols, etc., and a microphone 10 for inputting voice.
  • a speaker 9 for outputting sound a video camera unit 6 having an image sensor and an optical system capable of capturing still images and moving images, and a display unit 7 capable of displaying not only characters and symbols but also images. And at least.
  • Terminal 1 and the terminal 2 can transmit and receive not only audio signals but also image data captured by the video camera unit 6. Therefore, Terminal 1 and Terminal 2 can each display the image taken by the other party on the display unit 7. Obviously, Terminal 1 and Terminal 2 can transmit and receive not only audio signals but also image data captured by the video camera unit 6. Therefore, Terminal 1 and Terminal 2 can each display the image taken by the other party on the display unit 7. Obviously, Terminal 1 and Terminal 2 can each display the image taken by the other party on the display unit 7. Becomes
  • the terminal 1 is a transmitting device that transmits image data and the transmitting device, that is, the receiving device for the image data transmitted from the terminal 1 is the terminal 2 will be described as an example.
  • the terminal 1 or the terminal 2 is referred to as the transmitting device 1 or the receiving device 2 as appropriate.
  • the image data transmitted from the transmitting device 1 is transmitted to the receiving device 2 via the transmission path including the base stations 3, 5 and the exchange 4 together with the information on the frame rate.
  • the receiving device 2 receives the image data transmitted from the transmitting device 1 and displays a moving image based on the received image data based on the received frame rate information on a display unit 7 including, for example, a liquid crystal display. Display an image.
  • control information for controlling the spatial resolution and the temporal resolution of the image displayed on the display unit 7 is transmitted from the receiving device 2 to the transmitting device 1 via the transmission path. That is, from the receiving device 2, control information (click data as instruction data to be described later) used for specifying the region of interest of the user of the receiving device 2 on the transmitting device 1 side is transmitted to the transmitting device 1. Sent.
  • the transmitting device 1 Upon receiving the control information (hereinafter referred to as click data) from the receiving device 2, the transmitting device 1 displays an image to be displayed on the receiving device 2 based on the click data, for example, the transmitting device
  • the image area (interesting area) of interest to the user of the receiving device 2 is specified from the images captured by the video camera 6 of 1. Further, the transmitting device 1 controls the information amount of the image data to be transmitted to the receiving device 2 so that the spatial resolution and the temporal resolution of the specified image area are changed while satisfying a predetermined condition.
  • the transmission path is 189.5.150-: L 95.9950 MHz transmission path.
  • the transmission rate is 128 kbps (Bit Per Second).
  • FIG. 2 shows the transmitting apparatus 1 included in the communication system shown in FIG.
  • the transmission device includes, for example, a video camera unit 6 including an image sensor (CCD: Charge Coupled Device, etc.) and an optical system, and an image signal processing circuit that generates image data from an image signal obtained by the video camera unit 6. And the like, and an image input unit 11 composed of the above. That is, from the image input unit 11, the user of the transmitting device 1 views a desired subject. Image data is captured by the video camera unit 6, and image data generated by the image signal processing circuit is output. The image data is sent to the preprocessing unit 12.
  • CCD Charge Coupled Device, etc.
  • the preprocessing unit 12 is roughly divided into a background extraction unit 13, an object extraction unit 14, and an additional information calculation unit 15.
  • the object extracting portion 14 of the pre-processing portion 12 extracts the image of the receiving device 2 from the image taken by the video camera portion 6 of the image input portion 11.
  • the image region of interest of the user that is, the region of interest is extracted, and the image data corresponding to the extracted region of interest is supplied to the transmission processing unit 16.
  • the object extracting unit 14 The image data of the region of interest is supplied to the transmission processing unit 16.
  • the image data of the region of interest extracted by the object extraction unit 14 is also supplied to the additional information calculation unit 15.
  • an object such as an object in an image is taken as an example of the region of interest to which the user pays attention.
  • an object is an area in which an image is divided into certain units and can be processed for each unit.
  • attention is paid to objects existing in the image, and processing is performed for each object.
  • This object is defined as an object when performing the following.
  • an example is given in which object data is extracted from an image based on a click, and processing is performed on a per-object basis. How to create this object depends on the content of the required image.
  • the object extraction unit 14 extracts an object (hereinafter, appropriately referred to as an object image) as an example of a region of interest.
  • the region of interest is not necessarily an object, and may be an image region other than the object, an image region within the object, a background image portion described later, or the like. This is explained using an object as an example.
  • the method of extracting object images is to extract small object image data corresponding to the user's click data on the image, connect the small object image data
  • An embodiment of the present invention is a method of extracting an object image by extracting the object image data by coupling.
  • the object extracting unit 14 detects the change in the interest, and newly detects the interest based on the detection result of the change in the interest.
  • the object image which is the interesting region of interest is extracted. The details of the object extraction performed by the object extraction unit 14, that is, the process of specifying the region of interest and detecting the change of the object of interest will be described later.
  • the background extraction unit 13 of the preprocessing unit 12 extracts the background part of the image (interesting object) from the image data supplied by the image input unit 11 based on the object extraction result by the object extraction unit 14.
  • a signal hereinafter, referred to as background image data
  • a background image an image region other than the region
  • Supply 1 to 5 a flat image region having a small activity and having no special meaning as an image
  • the background image includes not only images that have no special meaning, but also objects that are not of interest to the user. This will be described as an image.
  • the additional information calculation unit 15 Based on the background image data supplied from the background extraction unit 13, the additional information calculation unit 15 performs background movement, such as panning, due to the movement of the imaging direction of the image input unit 11 when capturing an image. A background motion vector representing a tilt image is detected. Further, the additional information calculation unit 15 detects an object motion vector representing the motion of the object based on the image data of the object supplied from the object extraction unit 14 (hereinafter referred to as object image data). I do. Then, the additional information calculation unit 15 supplies the motion vectors to the transmission processing unit 16 as additional information. In addition, the additional information calculation unit 15 generates an image captured by the video camera unit 6 of the image input unit 11, that is, an object in the frame image, based on the object image data supplied from the object extraction unit 14.
  • Information related to the object is also supplied to the transmission processing unit 16 as additional information. That is, when extracting an object image, the object extraction unit 14 also extracts information related to the object such as the position and shape of the object, and outputs the additional information calculation unit. Supply 1 to 5. The additional information calculation unit 15 outputs information related to the object as additional information.
  • the transmission processing unit 16 increases the spatial resolution or the temporal resolution of the object image among the images to be displayed on the receiving device 2 based on the click data supplied from the receiving device 2,
  • the object image data from the object extraction unit 14, the background image data from the background extraction unit 13, and the The additional information of is encoded.
  • the transmission processing section 16 performs the object image decoding after encoding (hereinafter referred to as object encoding encoding) and the background image decoding (hereinafter referred to as background encoded data). And multiplexes the additional information (hereinafter referred to as additional information coded data), and transmits the multiplexed data together with the frame rate information to the receiving device 2 via the transmission path.
  • step S 1 in the image input unit 11 of the transmission device 1, an image is captured by the video camera unit 6, and the image data is transmitted to the preprocessing unit 12.
  • step S2 the transmission device 1 receives the click data transmitted from the reception device 2 and inputs the click data to the preprocessing unit 12.
  • step S3 the preprocessing unit 12 receiving the image data and the click image performs preprocessing of background extraction, object extraction, and additional information calculation, and performs background image data obtained in the preprocessing.
  • the object image data and additional information are sent to the transmission processing unit 16.
  • the object extraction includes detection of a change in an object of interest.
  • step S4 the transmission processing unit 16 calculates the data amounts of the object image data, the background image data, and the additional information so as to satisfy the condition of the data rate that can be transmitted on the transmission path.
  • the object image data, the background image data, and the additional information are encoded and multiplexed according to the evening amount, as described later. After that, the multiplexed data is transmitted to the receiving device 2 via the transmission path together with the frame rate information. Thereafter, the process returns to step SI, and the same processing is repeated thereafter.
  • FIG. 4 ⁇ shows the receiving device 2 that constitutes the communication system shown in FIG.
  • the multiplexed data transmitted from the transmission device 1 via the transmission path is received by the reception processing unit 21 of the reception device 2 shown in FIG.
  • the reception processing unit 21 separates and decodes the background coded data, the object coded data, and the additional information coded data from the received multiplexed data, and decodes the decoded background image.
  • the data, object image data, and additional information are sent to the synthesis processing unit 22.
  • the synthesis processing unit 22 synthesizes an image using the decoded background image data, object image data, and additional information supplied from the reception processing unit 21, and outputs a signal of the synthesized image. Supply to parts 23. Further, the synthesizing unit 22 controls the spatial resolution and the temporal resolution of the image to be synthesized based on the click data supplied from the click data input unit 24.
  • the image output unit 23 generates a drive signal for driving, for example, a liquid crystal display or the like of the display unit 7 based on the supplied image data, and receives the drive signal together with the multiplexed data on the liquid crystal display or the like. By transmitting the image at the frame rate based on the frame rate information, the image synthesized by the synthesis processing unit 22 is displayed on the display unit 7.
  • the user When the user operates a key unit 8 having a function as a pointing device for designating a coordinate position of an image on the display unit 7, the user operates the key unit 8 when the user clicks on the key unit 8.
  • the click position corresponding to the click position that is, the click position indicating the coordinate position and the click time is generated. That is, when the user specifies a region of interest, which is a desired image portion of the image displayed on the display unit 7, by clicking the key unit 8, the click data overnight input unit 24 displays A click is generated to indicate the coordinate information of the click position and the click time.
  • the click data generated by the click data input unit 24 is sent to the combination processing unit 22 and the click data transmission unit 25.
  • the click data transmitting unit 25 Upon receiving the click data from the click data input unit 24, the click data transmitting unit 25 transmits the click data to the transmitting device 1 via the transmission path.
  • the click data transmitting unit 25 Upon receiving the click data from the click data input unit 24, the click data transmitting unit 25 transmits the click data to the transmitting device 1 via the transmission path.
  • the reception processing unit 21 of the reception device 2 first receives, as step S11, the multiplexed data transmitted from the transmission device 1 via the transmission path.
  • step S12 the reception processing unit 21 separates the background coded data, the object coded data, and the additional information coded data from the multiplexed data, and further separates the coded data. Decrypt overnight. The decoded background image data, object image data, and additional information are sent to the synthesis processing unit 22.
  • step S13 the click data input unit 24 of the receiving device 2 acquires the click data based on the user's click operation of the key unit 8 and sends it to the synthesizing processing unit 22, and clicks the click data.
  • the data is transmitted to the data transmission unit 25, and transmitted from the click data transmission unit 25 to the transmission device 1.
  • step S14 the synthesis processing unit 22 receives the background image data, the object image data, and the additional information supplied from the reception processing unit 21 and the click image data from the click input unit 24.
  • An image is synthesized based on the click data, and the spatial resolution and the temporal resolution of the synthesized image are controlled.
  • step S15 the image output unit 23 displays the image synthesized by the synthesis processing unit 22 on the liquid crystal display or the like of the display unit 7 based on the frame rate information received together with the multiplexed data. Display.
  • FIG. 6 shows a specific example of the transmission processing unit 16 included in the transmission device 1 shown in FIG.
  • the background image data, the object image data, and the additional information from the pre-processing unit 12 shown in FIG. 2 are supplied to the transmission processing unit 16 shown in FIG. These background image data, object image data, and additional information are input to the encoding unit 31 and the control unit 35.
  • the encoding unit 31 hierarchically encodes the supplied background image data, object image data, and additional information as described later, and outputs the resulting encoded data to a MUX (multiplexer) 32. Supply.
  • the MUX 32 under the control of the controller 35, controls the MUX 32 supplied from the encoder 31. Scene-encoded data, object-encoded data, and additional information-encoded data are selected and supplied to the transmission unit 33 as multiplexed data.
  • the transmitting unit 33 modulates the multiplexed data from the MUX 32 together with the above-described frame rate information according to the transmission standard of the subsequent transmission line, and transmits the multiplexed data to the receiving device 2 via the transmission line. .
  • the data amount calculation unit 34 monitors the multiplexed data output from the MUX 32 to the transmission unit 33, calculates the data rate, and supplies the data rate to the control unit 35.
  • the control unit 35 controls the output of the multiplexed data by the MUX 32 so that the data rate calculated by the data amount calculation unit 34 does not exceed the transmission rate of the transmission line. It receives the click data transmitted and received from the receiving device 2 via the receiver 2, and controls the multiplexing of the encoded data in the MUX 32 based on the click data.
  • FIG. 6 a specific configuration example of the encoding unit 31 shown in FIG. 6 is shown in FIG.
  • the background image data is input to the difference calculation unit 41B.
  • the difference calculation unit 41B has already processed the background image data included in the image frame to be processed at the current time (hereinafter, appropriately referred to as the current frame) supplied from the local decoder 44B.
  • the background image data one frame before is subtracted, and the difference of the background image as a result of the subtraction (hereinafter, referred to as background image difference data) is supplied to the hierarchical encoding unit 42B.
  • the hierarchical coding unit 42B performs hierarchical coding on the background image difference data from the difference calculation unit 41B as described below, and stores the data obtained by the coding, that is, the background coded data in the storage unit. Supply to 4 3 B.
  • the storage unit 43B temporarily stores the background encoded data from the hierarchical encoding unit 42.
  • the background encoded data stored in the storage unit 43B is sent to the MUX 32 shown in FIG. 6 as background encoded data.
  • the background encoded data stored in the storage section 43B is supplied to the local decoder 44B.
  • the local decoder 44B locally decodes the background encoded data, decodes the original background image data, and supplies the decoded background image data to the difference calculator 41B.
  • the local decoder 4 4 B The background image data is used by the difference calculation unit 41B to obtain difference data from the background image data of the next frame.
  • the object image data is supplied to a difference calculation unit 41F.
  • the difference calculation unit 41F is the one-frame-preceding object image data already processed from the object image data contained in the image frame currently being processed (current frame) supplied from the local decoder 44F.
  • the difference data of the object (hereinafter referred to as object image difference data) as a result of the subtraction is supplied to the hierarchical coding unit 42F.
  • the hierarchical encoding unit 42F hierarchically encodes the object image difference data from the difference calculation unit 41F as described later, and stores data (object encoded data) obtained by the encoding. Supply to part 4 3F.
  • the storage unit 43F temporarily stores the object encoding data from the hierarchical encoding unit 42.
  • the object encoded data stored in the storage unit 43F is sent to the MUX32 shown in FIG.
  • the object coded data stored in the storage unit 43F is supplied to the local decoder 44F.
  • the local decoder 44 F locally decodes the object coded data, decodes the original object image data, and supplies the decoded object image data to the difference calculator 41 F. .
  • the object image data decoded by the oral decoder 44F is used by the difference calculation unit 41F to obtain difference data from the object image data of the next frame.
  • any variable-length coding method may be used as long as it compresses data by reducing redundancy, and run-length coding, Huffman coding, etc. may be used. it can.
  • the variable-length encoded additional information is sent to the MUX 32 shown in FIG. 6 as the additional information encoded data.
  • the encoding unit 31 in FIG. 7 performs, for example, an average value (average of pixel values) of four pixels composed of two pixels in the horizontal direction and two pixels in the vertical direction in the lower layer as the layer encoding. For example, a process of setting a pixel value of one pixel in an upper layer one level higher than the lower layer is performed for, for example, three layers.
  • the pixel value described here is a difference value obtained by the difference calculation performed as a preceding stage of the hierarchical coding, that is, a difference value for each pixel. Of course, if the difference calculation is not performed before the hierarchical coding, the pixel value will be a normal pixel value.
  • an image of the lowest hierarchy for example, as shown in FIG. 8A, an image composed of 4 pixels in the horizontal direction and 4 pixels in the vertical direction (hereinafter referred to as 4 ⁇ 4 pixels) is considered.
  • 4 ⁇ 4 pixels an image composed of 4 pixels in the horizontal direction and 4 pixels in the vertical direction
  • 4 ⁇ 4 pixels four pixels h 0 0, h 0 1, h 2, which constitute the upper left two pixels in the horizontal direction and the two pixels in the vertical direction (hereinafter referred to as 2 ⁇ 2 pixels) among the 4 ⁇ 4 pixels concerned
  • the average value of h 0 2 and h 0 3 is calculated, and this average value is used as the pixel value of one pixel m 0 at the upper left of the second layer.
  • the average value of the upper right 2 ⁇ 2 pixels h 1 0, h 11, h 12, and h 13 of the 4 ⁇ 4 pixels of the first layer is 1 pixel m 1 of the upper right of the second layer.
  • the average value of the lower left 2 ⁇ 2 pixels h 2 0, h 2 1, h 2 2, h 2 3 of the 4 ⁇ 4 pixels of the first layer is is Do the pixel value of the pixel m 2, 2 X 2 pixels h 3 0 of the lower right side of the 4 X 4 pixels in the first layer, h 3 1, h 3 2 5 mean value of h 3 3 the second layer Is the pixel value of one pixel m 3 at the lower right of the pixel.
  • the average value of the four pixels mO, ml, m2, and m3 that constitute the 2x2 pixel of the second layer is obtained, and this average value is calculated for the third layer (the highest layer).
  • the pixel value of one pixel q is set.
  • the encoding unit 31 in FIG. 7 performs the above-described hierarchical encoding.
  • the spatial resolution of the image at the highest hierarchical level (third hierarchical level) is the lowest, and the spatial resolution of the image is improved as the hierarchical level becomes lower.
  • the spatial resolution of the (hierarchical) image is the highest.
  • the lowermost layer In comparison with the case where only the image of (1) is transmitted, the amount of data is increased by the amount of pixels m0 to m3 of the second layer, which is the higher layer, and pixel q of the third layer.
  • the lower right pixel m 3 among the pixels m 0 to m 3 of the second hierarchy is replaced with the third hierarchy m 3.
  • the pixel q of the first layer is embedded, and the data of the second layer composed of the pixels mO, ml, m2, and q and the data of the first layer are transmitted. According to this, it is possible to reduce the amount of data for the third layer.
  • the pixel mO of the second layer is used as the 2 ⁇ 2 pixel of the first layer used to obtain it.
  • the pixel m 1 of the second layer is replaced with the pixel h 1 at the lower right of the 2 ⁇ 2 pixels h 1 0 to h 13 of the first layer used to obtain it, for example. 3
  • the pixel m 2 of the second layer is replaced with, for example, the lower right pixel h2 3 of the 2 ⁇ 2 pixels h20 to h23 of the first layer used to obtain it.
  • the third layer pixel q embedded in the lower right pixel of the second layer pixels mO to m3 is replaced with the first layer 2 ⁇ 2 pixels h30 to h33.
  • the lower right pixel h33 is transmitted instead of the lower right pixel h33.
  • the data amount of the third and second layers can be reduced. That is, in the example shown in FIG. 8C, the total number of pixels to be transmitted is 16 pixels of 4 ⁇ 4 pixels, which is the same as the number of pixels of the lowest hierarchy (first hierarchy) shown in FIG. 8A. Therefore, in this case, it is possible not only to transmit pixel data corresponding to each of the first to third layers, but also to minimize the increase in the amount of data to be transmitted.
  • the pixels mO, m1, m2, and q and the pixels h03, h of the first hierarchy replaced with the pixels mO, m1, m2, and q 13, h 23 and h33 can be decoded as follows.
  • the value of the pixel m0 is the average value of the pixels hO0 to hO3
  • the pixels h13, h23, and h33 can be obtained.
  • a pixel that is not transmitted in a certain layer can be decoded from a pixel transmitted in that layer and a pixel transmitted in the next higher layer.
  • the control unit 35 of the transmission processing unit 16 determines whether or not a click is received from the receiving device 2 in step S21. If it is determined in step S21 that no click data has been transmitted from the receiving device 2, that is, if the control unit 35 has not received the click data, the control unit 35 proceeds to step S21. As 22, the MUX 32 is controlled, and the receiving device 2 encodes the background, object, and additional information so that the image can be displayed at a normal time resolution, for example, a default time resolution.
  • MUX of the time 32 indicates that the spatial resolution of the image displayed on the receiving device 2 side when the multiplexed data is transmitted at the transmission rate of the transmission line while maintaining the time resolution of 30 frames / second is maintained.
  • the coded data of the background, object, and additional information are selected and multiplexed so as to be the highest.
  • an image is displayed at 30 frames / second, but the transmission rate of the transmission path is the third layer of data.
  • the MPX 32 uses the codes for the background, object, and additional information to display the image on the third layer. Select the data to be converted.
  • the image having the temporal resolution of 30 frames / sec and the spatial resolution in the horizontal direction and the vertical direction both being 1/4 of the image of the first layer, which is the original image, is used. Will be displayed.
  • step S23 the transmission processing unit 16 transmits the multiplexed data from the MUX 32 together with the set frame rate information from the transmission unit 33 via the transmission path in step S23. Then, the process returns to step S21.
  • step S21 when the control unit 35 determines that the click data has been transmitted from the receiving device 2, that is, when the control unit 35 receives the click data, the control unit 35
  • step S24 based on the click data, the user recognizes the click position and the click time, which are the coordinates of the point of interest specified by operating the click data input unit 24 of the receiving device 2.
  • control unit 35 performs the process of step S25, in which the user of the receiving device 2 side pays attention based on the coordinates of the target point, that is, the click position and the click time.
  • Region of interest and sets the specified region of interest as a priority range of the image displayed on the receiving device 2 side that preferentially improves the spatial resolution. Detects the image and the corresponding additional information.
  • an image within the priority range corresponds to an object image
  • an image outside the priority range corresponds to an image other than the region of interest, such as a background image.
  • the control unit 35 controls the MUX 32 as step S26, and in the receiving device 2, the image within the priority range is displayed in a higher spatial resolution so that the image within the priority range is displayed at a higher spatial resolution.
  • the selected image (object image), the image outside the priority range (background image), and the encoded data of the additional information are selected and multiplexed. That is, when receiving the click data from the receiving device 2, the control unit 35 controls the MUX 32 so as to improve the spatial resolution of the image within the priority range at the expense of the time resolution.
  • control unit 35 controls to improve the spatial resolution of the image within the priority range.
  • control unit 35 improves the time resolution of the image within the priority range, that is, the frame rate of the image within the priority range. May be controlled to be improved.
  • control The unit 35 may sacrifice the spatial resolution, but may control the entire information amount by setting a still image as the image corresponding to the background image data that is out of the priority range.
  • the MUX 32 preferentially selects and multiplexes the encoded data for displaying the image of the second layer, in addition to the third layer, for the image within the priority range,
  • the multiplexed data is output.
  • control unit 35 inserts information such as the position and size of the priority range (hereinafter, appropriately referred to as high-resolution information) into the additional information to be selected as the multiplexing data as step S26.
  • the MUX 32 is controlled so as to execute, and the process proceeds to step S23.
  • step S23 the transmitting section 33 transmits the multiplexed data output from the MUX 32 together with the frame rate information via the transmission path, and then returns to step S21.
  • step S26 for an image outside the priority range, for example, for a background image, an encoding process for displaying an image on the third layer is performed in step S26. Assuming that the selection is continued in the same way as in the case of step 2, the control unit 35 determines that the data amount of the multiplexed data in the case of step S26 is smaller than the spatial resolution in the case of step S22. The amount of data will be increased by the amount of the second layer of images and object images within the increased priority range.
  • the transmitting unit 33 transmits multiplexed data having a rate lower than, for example, 30 frames / sec, in the most extreme case, 0 frames / sec, that is, a still image.
  • the image in which both the horizontal and vertical spatial resolutions are 2 of the original image (the image of the first layer), that is, the horizontal An image (second-layer image) is displayed in which the spatial resolution in both the vertical and vertical directions is twice as large as that of the third-layer image displayed as it is.
  • the time resolution of the image displayed on the receiver 2 is It will be less than 30 frames nosec.
  • step S21 After the data of the second layer has been transmitted for the images within the priority range, it is determined in step S21 that the click device has been transmitted from the receiving device 2 following the previous time.
  • the control unit 35 controls the MUX 32 in step S26, and controls the MUX 32 so that the image in the priority range is displayed on the receiving device 2 with higher spatial resolution. Select and multiplex.
  • the images of the second layer and the encoding data of the additional information thereof are already selected with priority.
  • the image of the first layer and the encoded data of the additional information are also preferentially selected and output as multiplexed data.
  • the high-resolution information is inserted into the additional information as described above, and in step S23, the multiplexed data from MUX 32 is transmitted together with frame rate information from transmission section 33 via the transmission path. After the transmission, the process returns to step S21.
  • the receiver 2 first displays the image within the priority range with the same spatial resolution as the original image (the first layer image), that is, the horizontal and vertical spatial resolutions.
  • the image that is four times as large as the image on the third layer (the image on the first layer) is displayed.
  • the time resolution is an image lower than the above 30 frame seconds, and if it becomes 0 frame Z seconds, it is a still image.
  • the user of the receiving device 2 continues to operate the click data input unit 24 and, for example, continues to specify the same point of interest, that is, the area of interest, the image within the priority range including the point of interest, that is, the object of interest Since the data for improving the spatial resolution is preferentially transmitted for the region, for example, the object image, the spatial resolution of the image in the priority range including the point of interest gradually increases, and as a result, Images within the priority range will be displayed more clearly. That is, a region of interest, for example, an object image, which is an image of a part that the user is paying attention to on the It is displayed more clearly.
  • the region of interest which is the image within the priority range specified by the point of interest based on the click data
  • the spatial or temporal resolution of the object image is within the range of the resolution corresponding to the transmission rate of the transmission path. Since the transmission of the image data is controlled so as to be changed, it is possible to further improve the spatial resolution of the image corresponding to the point of interest displayed on the receiving device 2 within the limited transmission rate. it can. That is, by improving the spatial resolution of the object image within the priority range at the expense of the time resolution of the image, the object image displayed on the receiving device 2 within the limited transmission rate can be displayed more clearly. That is, the spatial resolution can be further improved.
  • multiplexed data supplied via a transmission path is received by a receiving unit 51, demodulated, and the like, and then supplied to a DMUX (demultiplexer) 52.
  • DMUX demultiplexer
  • the DMUX 52 separates the multiplexed data supplied from the receiving unit 51 into background coded data, object coded data, and additional information coded data, and supplies them to the decoding unit 53.
  • the decoding unit 53 converts the encoded data of the background, the object, or the additional information (the data obtained by encoding the difference value in the present embodiment) into the original data by performing a process reverse to that at the time of the encoding. And outputs it to the synthesis processing unit 22 shown in FIG.
  • FIG. 11 shows a specific configuration example of the decoding section 53 shown in FIG.
  • the background image difference data that is hierarchically encoded which is the background encoded data, is supplied to the adder 61B.
  • the adder 61B is also supplied with the already decoded background image data of the previous frame, which is stored in the storage unit 62B.
  • the adder 61B adds the background image data of the previous frame from the storage unit 62B to the input background image difference data, thereby obtaining the background image data of the layer necessary for the current frame. Decrypt.
  • the decoded background image data is supplied to the storage unit 62B, stored therein, read out, and supplied to the adder 61B. Both are sent to the synthesis processing section 22 shown in FIG.
  • the hierarchically encoded object image difference data which is the object encoded data, is supplied to the adder 61F.
  • the adder 61F is also supplied with the already decoded object image data of one frame before, which is stored in the storage unit 62F.
  • the adder 6 1F adds a storage unit to the input object image difference data.
  • the object image data of the layer required in the current frame is decoded by adding the object image data one frame before from 6 2 F.
  • the decoded object image data is supplied to the storage unit 62F, stored and read out, supplied to the adder 61F, and transmitted to the combination processing unit 22 shown in FIG. Can be If there are a plurality of objects, the adder 61F and the storage unit 6 perform hierarchical decoding on the difference data of the plurality of objects as described above.
  • variable-length-coded additional information which is additional information-encoded data
  • the variable-length-coded additional information is input to the inverse VLC unit 63, where it is subjected to variable-length decoding.
  • the information is decoded into the original additional information and supplied to the synthesis processing unit 22.
  • the above-described local decoder 44 B shown in FIG. 7 has the same configuration as the adder 61 B and the storage unit 62 B
  • the local decoder 44 F shown in FIG. 7 has an adder 61 F and It has the same configuration as the storage unit 62F.
  • FIG. 12 shows a specific configuration of the synthesis processing unit 22 included in the receiving device 2 shown in FIG.
  • the background image data output from the decoding unit 53 shown in FIG. 10 is input to the background writing unit 71, and the object image data is input to the object writing unit 72 and added. Information is written in the background writing section 7 1 and the object writing section.
  • the background writing unit 71 sequentially writes the supplied background image data into the background memory 73.
  • the background writing unit 71 adds the additional information to the background information.
  • the background image data is written to the background memory 73 while the background is aligned based on the included background motion vector. It is made to perform the writing. Therefore, the background memory 73 is configured to be able to store an image of an image that is spatially wider than an image for one frame.
  • the object writing unit 72 sequentially writes the supplied object image data into the object memory 75.
  • the object writing unit 72 writes the image data of the plurality of objects into the object memory 75 for each object.
  • the object writing unit 72 stores the object image already written in the object memory 75. Instead of the data, new object image data, that is, new object image data supplied to the object writing unit 72 is written.
  • the object writing unit 72 stores an object flag stored in the address of the object flag memory 76 corresponding to each pixel constituting the object. Is changed from "0" to "1". That is, the object writing unit 72 refers to the object flag memory 76 when writing the object image data to the object memory 75, and the object flag is set to "1".
  • Writing of object image data having a low spatial resolution to an object memory 75 in which image data of an object, that is, image data of an object having a high spatial resolution is already stored is not performed. Therefore, the object memory 75 basically writes the object image data each time the object image data is supplied to the object writing unit 72, but the object image data already having a high spatial resolution is stored in the object memory 75.
  • the object image data having a low spatial resolution is not written in the object memory 75 storing the image data.
  • the object memory 75 every time object image data having a high spatial resolution is supplied to the object writing section 72, the number of object images having a high spatial resolution increases.
  • the synthesizing unit 77 displays the background image data stored in the background memory 73 at this time.
  • the background image of the current frame which is the frame to be displayed, is read out based on the background motion vector included in the additional information, and the object image stored in the object memory 75 is included in the additional information.
  • the images are synthesized based on the object motion vectors to be formed, whereby an image of the current frame is formed and supplied to the display memory 78.
  • the synthesizing unit 77 when receiving the click data from the click image input unit 24 in FIG. 4, the synthesizing unit 77 generates an object image image including the coordinate position of the attention point included in the click image. Is read from the object memory 75 and supplied to the subwindow memory 79.
  • the display memory # 8 is a memory that functions as a so-called VRAM (Video Read Only Memory) .
  • VRAM Video Read Only Memory
  • the sub-window memory 79 temporarily stores the object image data from the synthesizing unit 77, reads it out, and supplies it to the image output unit 23 shown in FIG. At this time, a sub-window described later is displayed on the display unit 7 driven by the image output unit 23 together with the image of the current frame, and the object image is displayed on the sub-window.
  • step S31 the object writing unit 72 converts the object image data supplied from the decoding unit 53 in FIG. 10 into an object flag based on the object flag stored in the object flag memory 75. Write as described above.
  • the object writing unit 72 refers to the object flag stored in the object flag memory 76, and stores the address of the object memory 75 corresponding to the pixel whose object flag is “0” in the address.
  • the object image data supplied thereto is written, and the address of the object image data supplied there is stored in the address of the object memory 75 corresponding to the pixel for which the object flag is "1". Only when the spatial resolution is high, the object image data with high spatial resolution is written.
  • the writing is performed in an overwriting manner.
  • step S32 the object writing unit 72 determines whether the additional information includes high-resolution information. If it is determined in step S32 that the additional information includes high-resolution information, that is, the user of the receiving apparatus 2 operates the click-and-click input unit 24 in FIG. 1 is transmitted, and as described above, when the transmitting device 1 transmits the image of the object image having a high spatial resolution with respect to the image within the priority range as described above, the process proceeds to step 33. Then, in the object writing section 72, a predetermined object flag of the object flag memory 76 is set to "1".
  • the object memory 75 stores the spatial resolution in step S31.
  • the image of the object image with the highest is written.
  • the object flag for the pixels constituting the object image having the high spatial resolution is set to "1".
  • step S34 the synthesizing unit 77 reads out the object image data within the priority range from the object memory 75, and writes it into the sub window memory 79.
  • step S32 when it is determined that the additional information includes the high-resolution information, the user operates the click data input unit 24 as described above to This is a case where click data is transmitted, and thereby, data of an object image having a high spatial resolution is transmitted from the transmission device 1 for an image within the priority range as described above.
  • the click data transmitted to transmitting apparatus 1 is also supplied to combining section 77.
  • the synthesizing unit 77 recognizes the priority range from the coordinates of the attention point and the click time included in the click data in step S34, and transmits the data from the transmitting device 1.
  • Objects with high spatial resolution within the priority range Read from the sub memory 75 and write to the sub window memory 79.
  • the synthesizing unit 77 converts the background image data of the current frame from the background image data stored in the background memory 73 based on the background motion vector included in the additional information.
  • the object image data to be displayed in the current frame is read from the object memory 75, and the background image data of the current frame and the object image data read from the object memory 75 are added to the additional information.
  • the image is composed based on the object motion vector included in the image c.
  • the image of the current frame is formed and written into the display memory 78. That is, the synthesizing unit 77 writes the background image data into the display memory 78, for example, and then overwrites the object image data, thereby combining the background image and the object image into the current frame image. Write the data to the display memory 78.
  • the image data of the current frame written in the display memory 78 and the object image data written in the sub window memory 79 are supplied to the image output unit 23 in FIG. Will be displayed on the display unit 7.
  • step S32 determines whether the additional information does not include high-resolution information, that is, if the user of the receiving device 2 has not operated the click.
  • step S34 the process proceeds to step S35, and the background image data of the current frame is read from the background memory # 3 in the synthesizing unit 77 as described above, and Necessary object image data is read from the object memory 75, and the background image of the current frame and the object image read from the object memory 75 are combined according to the additional information.
  • the image data of the current frame is formed and written into the display memory 78. Then, returning to step S31, the same processing is repeated thereafter.
  • FIG. 14A shows an example of an image when an object image having a low spatial resolution is moving rightward on a background image having a low spatial resolution. Then, when the user of the receiving device 2 operates the click data input unit 24 to move the cursor on the object image and clicks at that position, the user clicks on the transmitting device 1 as described above.
  • the transmission device 1 transmits data for displaying an image in the priority range specified based on the click image as a high spatial resolution image at the expense of time resolution. Will be.
  • the time on the display screen of the display unit 7 is lower than the resolution, but the space of the object image within the priority range centered on the position where the click is performed An image whose resolution gradually increases is displayed.
  • the spatial resolution of the image within the priority range gradually increases in accordance with the time during which the click is performed.
  • a sub-window is opened on the display unit 7 as shown in FIG. 14B, and objects within the extracted priority range including the position where the sub-window is clicked are displayed.
  • the display is such that the spatial resolution gradually increases.
  • the combining unit 77 converts the background image data of the current frame from the background memory 73 in step S35 as described above.
  • the object image data is read from the object memory 75, the background image data of the current frame and the object image data are combined according to the additional information, and written to the display memory 78.
  • the object image data whose spatial resolution has been increased by being clicked continues to be stored in the object memory 75 as it is, so that the display unit 7 clicks the object image data as shown in FIG. 14C.
  • the object image whose spatial resolution has been increased moves based on the motion vector of the additional information, and is displayed at a position to be displayed on the current frame.
  • the user of the receiving device 2 can view the object image having a higher spatial resolution by clicking at the position where the object image whose detail is desired to be displayed is displayed. That is, a detailed image of the object can be viewed.
  • the transmitting device 1 Since the background image data is stored in the background memory 73 as described above, It is not necessary for the transmitting device 1 to transmit the once transmitted low-resolution spatial background, so that the transmission rate can be preferentially assigned to the transmission of the object image data with higher spatial resolution. is there.
  • the object image data whose spatial resolution has been increased by being clicked is stored in the object memory 75, and after the click is stopped, the spatial resolution of that object is reduced. Since the high object image is pasted on the background image, the object image displayed on the receiving device 2 has a high spatial resolution, but the object image at this time includes the object photographed on the transmitting device 1. A change in the state of the image will not be reflected.
  • the object flag is ignored, and the object image data stored in the storage unit 62F of the decoding unit 53 shown in FIG. 11 is stored in the object memory 75. It is possible to overwrite the object image data which is the spatial resolution. That is, since the object image data transmitted from the transmission device 1 is sequentially stored in the storage unit 62F of the decoding unit 53, the object image data is written into the object memory 75 by writing the object image data to the object memory 75. As described above, the object image among the images displayed on the display unit 7 reflects the change in the state of the object photographed by the transmission device 1. However, the displayed object image has a low spatial resolution.
  • the transmission rate of the transmission path is R [bps], and here, it is assumed that data including a background image and three object images # 1 to # 3 is transmitted.
  • R the transmission rate of the transmission path
  • data including a background image and three object images # 1 to # 3 is transmitted.
  • no additional information is considered, and in order to display the background image and the object images # 1 to # 3 at a certain spatial resolution, the same data is used.
  • the transmitting device 1 does not click on the receiving device 2, as shown in FIG. 15A, the background image and the object images # 1 to # 3 each have a transmission rate R of 4 or the like. It is transmitted at the divided rate R / 4 [bps]. Assuming that the normal time resolution is 1 / T frame / second, the transmitting device 1 transmits the background image and the object. G. Images # 1 to # 3 are transmitted so that one frame worth of data can be transmitted in T seconds at most. Therefore, in this case, the receiving apparatus 2 displays the background image and the object images # 1 to # 3 having the spatial resolution obtained by the TXR / 4 bit data per frame.
  • the transmitting device 1 transmits the background image and the object images # 2 and "# 3" as shown in FIG. 15A, for example.
  • the data transmission is stopped, and only the object image # 1 is transmitted using all the transmission rates R of the transmission line.At time 2 after a lapse of time 4 T from time t, the user stops the click. Then, the transmitting device 1 transmits the background image and the object images # 1 to # 3 again at the transmission rate RZ4 again.
  • the spatial resolution can be further improved by sacrificing the temporal resolution, and the spatial resolution of the object image that the user is paying attention can be reduced compared to the case where the temporal resolution is not sacrificed. It can be improved more quickly.
  • the transmission rate of the background image and the data of the other object images # 2 and # 3 is assumed to be 0 frames / sec, and these are completely completed.
  • a high transmission rate is assigned to the transmission of object # 1 overnight, and the background image and other object images # 2 and # 3 are transmitted. It is possible to assign a low transmission rate to the overnight transmission.
  • the transmission rate assigned to the background image, object image # 1 to # 3, and their transmission can be kept at R / 4 (that is, in this case, the time resolution
  • the transmission rate assigned to the background image, object image # 1 to # 3 and their transmission can be kept at R / 4 (that is, in this case, the time resolution
  • the object image whose spatial resolution has been increased by being clicked is stored in the object memory 75, and after the click is stopped, the object image having the higher spatial resolution is used as the background image.
  • the position of the object image with high spatial resolution to be pasted in the background image is determined by the object motion included in the additional information about the object transmitted from the transmitting device 1 after that. It is determined based on the vector.
  • the receiving device 2 needs to recognize which object image of a certain frame corresponds to which object image of a frame adjacent to the frame, and the object extracting unit 14 of the transmitting device 1 In extracting, the receiving device 2 adds information for performing such recognition.
  • the transmitting device 1 when the user of the receiving device 2 specifies the point of interest by operating the click-and-click input unit 24, the transmitting device 1 sacrifice the time resolution of the image, and Although the example of performing data transmission control to improve the spatial resolution of the image in the range has been described, the transmitting device 1 learns, for example, the taste of the user of the receiving device 2 and, based on the learning result, The user of the receiving device 2 predicts and detects an object or the like that is considered to be desired to be displayed at a high spatial resolution, and performs transmission control over and over so that the object is displayed at a high spatial resolution. It is also possible.
  • FIG. 16 shows a configuration example of the control unit 35 of FIG. 6 when such transmission control is performed.
  • the priority range setting unit 91 receives the click data transmitted from the receiving device 2 and sets the priority range as described above. Is supplied to the selection control unit 92 and the feature amount extraction unit 93.
  • the selection control unit 92 includes a signal indicating the priority range supplied from the priority range setting unit 91, information on the data rate supplied from the data amount calculation unit 3 in FIG. 6, and object detection described later. Based on the information from the unit 95, the MUX 32 controls selection of each data of a background image, an object image, and additional information. That is, when receiving the signal indicating the priority range from the priority range setting unit 91, the selection control unit 92 increases the spatial resolution of the image within the priority range at the expense of the time resolution of the image. Controls multiplexing on MUX 32.
  • the selection control unit 92 when receiving the information of the lapel representing the object detected by the object detection unit 95, the selection control unit 92 improves the spatial resolution of the object to which the lapel is attached at the expense of the temporal resolution of the image. Control the MUX 32 as such. Further, the selection control section 92 is supplied with a data rate of the multiplexed data output from the MUX 32 from the data amount calculation section 34, and the selection control section 92 receives the data rate at the data rate. Controls the selection of data by the MUX 32 so that the transmission rate does not exceed the transmission rate of the transmission path.
  • the background image data, object image data, and additional information output from the preprocessing unit 12 and the signal indicating the priority range output from the priority range setting unit 91 are supplied to the feature extraction unit 93.
  • the feature amount extraction unit 93 includes a priority range setting unit 9
  • the feature amount extracting unit 93 extracts, for example, an extraordinary amount of an image within the priority range set by the user 1. Extract features that reflect the tendency to focus on. C Specifically, as shown in Fig. 17, for example, for an object representing a specific "person", the object is "person" That the object moves at a constant speed, for example, that the object's position in the depth direction (depth) is in the foreground, that the object's position on the screen is in the middle, and that the object has speed
  • the area that constitutes the object includes, for example, eyes, nose, and mouth (the area of the object includes the eyes, nose, and mouth)
  • the pattern of the object is, for example, a striped pattern
  • the feature amount extraction unit 93 further obtains a vector (feature amount vector) configured by using each feature amount of the extracted object as an element, and further obtains a histogram of the histogram stored in the histogram storage unit 94. Increment the frequency of the obtained feature vector by one.
  • the histogram storage unit 94 stores the histogram of the feature amount vector obtained by the feature amount extraction unit 93 as a learning result of the preference of the user of the receiving device 2.
  • the object detection unit 95 selects, from among the object images supplied from the preprocessing unit 12, a feature amount vector similar to the highest frequency feature amount vector of the histogram stored in the histogram storage unit 94. Find the object for which. That is, the object detection unit 95 obtains a feature amount vector for the object supplied from the preprocessing unit 12 in the same manner as in the feature amount extraction unit 93. Furthermore, the object detection unit 95 refers to the histogram stored in the histogram storage unit 94, and sets the preprocessing unit within a predetermined range of the feature vector space centered on the feature vector of the highest frequency.
  • the object is predicted as the one that the user of the receiving device 2 tends to pay attention to, and the object is predicted.
  • the label representing the object is supplied to the selection control unit 92.
  • step S81 the priority range setting unit 91 determines whether or not a click is received from the receiving device 2. In step S81, if it is determined that the click device has been transmitted from the receiving device 2, the process proceeds to step S82, and the priority range setting unit 91 performs the following based on the target data. As described above, the priority range is set, and a signal indicating the priority range is supplied to the selection control unit 92 and the characteristic amount extraction unit 93.
  • step S83 the selection control unit 92 controls the MUX 32 so as to improve the spatial resolution of the image (object image) within the priority range at the expense of the temporal resolution of the image.
  • step S84 the feature amount extraction unit 93 falls within the above-mentioned priority range.
  • the feature amount of the object is extracted, and a feature amount vector composed of each feature amount of the extracted object as an element is obtained.
  • step S85 the feature amount extraction unit 93 increments the frequency of the feature amount vector obtained above of the histogram stored in the histogram storage unit 94 by one, and the process proceeds to step S81. Return.
  • a histogram of the feature amount vector of the object that the user of the receiving device 2 tends to pay attention to is formed in the histogram storage unit 94. . That is, the preference of the user of the receiving device 2 is thus learned.
  • step S81 if it is determined in step S81 that no click data has been transmitted from the receiving device 2, the process proceeds to step S86, in which the object detecting unit 95 sends the pre-processing unit 12
  • a feature amount vector is obtained in the same manner as in the feature amount extraction unit 93.
  • step S87 the object detection unit 95 refers to the histogram stored in the histogram storage unit 94, and uses the feature vector space centered on the highest frequency feature vector in the histogram. It is determined whether the feature vector of the object image from the preprocessing unit 12 exists within the predetermined range of. That is, in step S87, it is determined whether the distance in the feature vector space between the highest frequency feature vector and the feature vector of the object image from the preprocessing unit 12 is within a predetermined value. Is done.
  • step S87 when it is determined that the distance between the highest frequency feature vector and the feature vector of the object image from the preprocessing unit 12 is not within a predetermined value, that is, the preprocessing unit 1 2 If the object image from has a low probability of being noticed by the user of the receiving device 2 based on past trends, the process proceeds to step S88, where the selection control unit 92 sets the normal The MUX 32 is controlled so that the time resolution and the spatial resolution are displayed, and the process returns to step S81.
  • step S87 if it is determined that the distance between the most frequent feature amount vector and the feature amount vector of the object image from the preprocessing unit 12 is within a predetermined value, Object images from Part 1 and 2 are based on past trends Then, if the probability that the user of the receiving device 2 will pay attention is high, the object detecting unit 95 outputs the lapel of the object from the preprocessing unit 12 to the selection control unit 92, and the step S8 Go to 9.
  • step S89 the selection control unit 92 increases the spatial resolution of the object image attached with the lapel from the object detection unit 95 at the expense of the temporal resolution of the image. And returns to step S81. Therefore, in this case, the receiving device 2 displays the labeled object image output by the object detection unit 95 at a high spatial resolution at the expense of the time resolution. And, after that, the object continues to be displayed at a high spatial resolution.
  • the object is, as it were, automatically. It will be displayed at a higher spatial resolution and will continue to be displayed at that higher spatial resolution thereafter.
  • the histogram of the feature vector as the learning result of the user's preference of the receiving device 2 stored in the histogram storage unit 94 is, for example, periodically or irregularly, or from the user of the receiving device 2. It can be reset in response to the request of.
  • software tuner is composed of a fusion of various processing methods (programs).
  • programs for example, in the case of spreadsheet software, not only programs for simply performing four arithmetic operations but also statistical processing It also includes programs for conducting Usually, a package media such as a CD-ROM in which the processing methods (programs, hereinafter referred to as appropriate methods) constituting the software are recorded is sold, and the package media is purchased. By doing so, the user obtains the right to use the software and is ready to use it.
  • the user does not acquire the use right at the time of purchasing the package media, but acquires the use right every time the user uses the software. Provide a system to acquire the right to use the method. Therefore, the user only needs to pay for using the software and only for using the required method among the software functions, and as a result, provides all the software at once.
  • the method can be used at a lower cost than in the case of the above package media.
  • a system in which an algorithm used by a user is selected from a plurality of different algorithms prepared, and different fees are collected according to the altitude of the algorithm. That is, in the present invention, a system is constructed in which the user is charged a fee according to the merits received by the user.
  • image communication in the case of image communication, it is possible to reduce the total amount of data while maintaining high quality by using a more advanced compression method (algorithm). If the bandwidth of data communication is limited, it is possible to obtain higher quality, i.e., high resolution, distortion-free and noise-free images by using more advanced algorithms. become.
  • a method with a low compression ratio in the case of the same image quality is defined as a relatively low algorithm, for example, a method for achieving high compression is defined as a relatively high algorithm.
  • a relatively low algorithm for example, a method for achieving high compression is defined as a relatively high algorithm.
  • the present invention is not limited to algorithms for image compression in image communication, but is also applicable to processing using various algorithms, such as data communication algorithms and voice processing algorithms. It is possible, and we will charge according to the altitude of the algorithm.
  • FIG. 19 shows an example of the above-mentioned billing, as an example of a basic billing process between the processing device 100 as a terminal in which the method is installed in advance and the management center 103. Show the model. Note that the provision of data to the terminals 1 and 2 and the accounting processing according to the actual data transmission and reception between the terminals 1 and 2 performed through the management center 103 in FIG. 1 will be described later.
  • the processing device 100 shown in FIG. 19 has an algorithm including a plurality of processing units 102, to 102 »that each perform processing using a different type of algorithm (program).
  • a processing unit 102 and a use processing management unit 101 that manages the use of each algorithm of the processing units 102 to 102 are provided.
  • the algorithm of each of the processing units 102! To 1022 of the algorithm processing unit 102 cannot be used freely by the user.
  • the management center 103 also includes an authentication memory 104 that holds authentication information as to whether the processing device 100 is a legitimate device (whether the user is a legitimate user).
  • a charge calculation system 1 that calculates the user's usage charge based on the usage history of the algorithm by the user (processing device 100) and the usage charge calculation table held in the charge calculation table 107. 06 and a management system 105 that manages the entire system.
  • the user requests the above processing units 100 A selection input for selecting which processing unit to use (i.e., which algorithm to use) among 2i to 102 »is performed.
  • the use processing management unit 101 first inquires of the management center 103 about permission to use the processing (algorithm).
  • the management system 105 of the management center 103 determines whether or not the processing unit 100 that has made the inquiry is a processing unit managed by itself. That is, it is confirmed whether the processing device 100 that has made the inquiry is a valid device (authorized user) based on the authentication information stored in the authentication memory 104. In this authentication, when the management system 105 confirms that the user is a valid processing device (authorized user), the management system 105 requests the processing device 100 to use the license. Send an enable signal.
  • the use processing unit 101 of the processing device 100 controls the algorithm processing unit 102, and performs the process of selecting and inputting by the user (by the management center 103). Immediately start processing in the processing unit corresponding to (processing for which use has been granted). As a result, a process desired by the user is executed.
  • the management system 105 of the management center 103 includes information indicating the processing device 100 (user) that transmitted the use permission and the process (algorithm) that permitted the use.
  • the charge calculation system 106 uses the usage charge calculation table set for each algorithm stored in the charge calculation table 107 to perform the above processing (algorithm). ) Calculate the fee when using. Thereafter, the charge calculation system 106 requests the user of the processing device 100 for a charge online or offline.
  • FIG. 19 shows a configuration in which a method (program) is installed in the processing device 100 in advance.
  • a method program
  • FIG. 0 does not have a method (program), and it is possible to acquire a method from the server such as the management center 103 as needed (download the program every time the processing is performed).
  • the processing device 110 of FIG. 20 includes a memory 111 for temporarily storing the method (program) transmitted from the management center 103 and a memory 111 for storing the method.
  • An MPU microprocessor unit for performing processing using the retained methods (programs) is provided.
  • the management center 103 in the case of FIG. 20 is an authentication memory that holds authentication information indicating whether the processing device 110 is a valid device (whether the user is a valid user). Based on 104 and the transmission history of the method (program) to the user (processing device 110) and the usage charge calculation table for each algorithm stored in the charge calculation table 107, A charge calculation system 106 that calculates user usage charges, an algorithm memory 115 that holds a plurality of different algorithms (programs), and an algorithm that manages the entire system and responds to requests from the processing unit 110 And a processing management processor 114 which reads out the program from the memory 114 and compresses the program, for example, and sends it to the processor 110.
  • the processing management processor 114 of the management center 103 determines whether or not the processing device 110 that has made the request is a processing device managed by itself. That is, whether the processing device 110 making the request is a valid device (authorized user) is confirmed based on the authentication information stored in the authentication memory 104. In this authentication, if it is confirmed that the processing device is a valid processing device (a valid user), the processing management processor 114 reads the processing procedure (program) from the algorithm memory 115 and compresses the program, for example. Or, if necessary, encrypt it and send it to the processing device 110.
  • the processing procedure program
  • the MPU 11 of the processing unit 110 Upon receiving the transmitted program, the MPU 11 of the processing unit 110 decompresses the compressed and encrypted program, decrypts the encryption, etc., and stores the obtained program in the memory 111. Let it. Thereafter, the MPU 112 performs processing using the program stored in the memory 111. As a result, processing desired by the user is performed. Note that the program stored in the memory 111 is self-destructed or automatically erased when the above processing is completed so that the program is not used again.
  • the processing management processor 114 of the management center 103 transmits information (transmission history) indicating the processing device (user) that transmitted the above program and its processing method (algorithm) to the charge calculation system 106.
  • the charge calculation system 106 calculates the charge when the above processing (algorithm) is used, using the table held in the charge calculation table 107. After that, the charge calculation system 106 sends the user of the processing device 110 online or online. Or charge offline.
  • the amount of data of the transmitted / received image becomes a problem.
  • the image is divided into a background, an object, and additional information.
  • an algorithm according to the image quality requested by the user is selected from among different image compression algorithms to control the amount of data.
  • An example of transmitting and receiving a compressed image data using the selected algorithm is described.
  • sub-samples, object codes, class classification adaptive prediction codes, and others for example, MPEG, etc.
  • MPEG MPEG, etc.
  • the selected algorithm includes not only the algorithm for image compression but also an algorithm for automatically selecting (optimizing) the algorithm for image compression according to the situation.
  • an algorithm for predicting the area (point of interest) that the user is interested in from the image by learning, and automatic control of the power consumption of the device It is possible to select any layer (software layer) algorithm, such as the algorithm for performing the algorithm. That is, the software layer used by the device includes, for example, hardware control software, an OS (operation system), application software, and the like.
  • the image compression algorithm and the automatic algorithm algorithm are used. Not only different algorithms in the application software layer such as selection (optimization) algorithms and attention point prediction algorithms, but also hardware algorithms such as automatic power consumption control algorithms and various hardware switch control algorithms. Different algorithms for the control software layer can be selected.
  • a desired algorithm is selected from among a plurality of different algorithms as described above.
  • charging is performed according to the selected algorithm.
  • the charge for each algorithm is defined, for example, as the sum of charges for each selection in each layer.
  • Figure 21 shows that it is possible to transmit and receive the compressed image data by compressing the image data using an algorithm appropriately selected from different algorithms for image compression according to the image quality requested by the user.
  • 2 shows a configuration example of a main part of a system that has been implemented.
  • FIG. 21 shows the configuration of FIG. 21.
  • Other components included in the transmission device 1 and the reception device 2 are omitted.
  • the transmitting device 1 and the receiving device 2 have basically the same configuration, in FIG. 21, the transmitting device 1 responds to a transmission request from the receiving device 2 to simplify the illustration.
  • the transmission device 1 shown in FIG. 21 includes, as main components, the video camera unit 6 (the image input unit 11) for capturing image data, and sub-samples which are different algorithms for image compression.
  • the receiving device 2 includes, as main components, a user instruction input unit 132 in which a user inputs a selection (in this example, an input for image quality selection) and a selection input by the user.
  • a selection in this example, an input for image quality selection
  • (Attention Control unit 13 3 that generates a request signal requesting an algorithm for predicting power consumption, an algorithm for automatically controlling the power consumption of equipment, etc., and transmitting the request signal to the management center.
  • Permission receiving unit 1 3 4 and power consumption control unit 1 3 1 that controls the power of the device when the above-mentioned automatic control algorithm for power consumption is used
  • An image data receiving unit 135 for receiving the transmitted compressed image data
  • a compressed image data decoding unit 136 for decoding the received compressed image data in accordance with the algorithm at the time of compression
  • a display section 13 7 (corresponding to the display section 7) for displaying the decoded image.
  • the management center 130 takes either the configuration of FIG. 19 or FIG. 20 or has both configurations depending on which model of FIG. 19 or FIG. 20 is adopted. It will be.
  • the instruction criteria include the required image quality (processing result performance), processing speed, processing time, data transfer time, and processing result. , Usage fee, power consumption (power consumption), etc.
  • the user instruction input unit 13 2. has a function of indicating a position in an image by a mouse click indicated by the PCT application publication number WO 01/1 189 89 A1 described above. I have. In addition to being used when predicting a user's attention point, it can also be used so that the area of data to be signal-processed is only the peripheral image block specified by the mouse click.
  • the control unit 133 realizes an image quality corresponding to the instruction signal.
  • a request signal for requesting an algorithm for possible image compression is generated and sent to the request transmission permission receiving unit 134.
  • Request transmission permission receiver 1 3 4 The request signal is sent to the management center 103 via a base station or an exchange (not shown). At this point, it is assumed that initialization processing such as securing a communication path has already been completed.
  • the management center 103 determines whether the receiving device 2 that has transmitted the request signal is a receiving device that is being managed by itself, that is, the receiving device that has transmitted the selection signal.
  • the request signal is sent to the transmitting device 1 via a base station or an exchange (not shown). And the permission signal is transmitted to the receiving device 2.
  • the request receiving section 126 of the transmitting device 1 Upon receiving the selection signal, the request receiving section 126 of the transmitting device 1 sends the request signal to the control section 128.
  • the control unit 128 analyzes the content of the selection signal and, based on the analysis result, compresses the image data obtained from the video camera unit 6 into the subsample compression, object code compression, and class prediction adaptive prediction compression. Then, it decides which algorithm of the hierarchical coding is to be used for compression, and operates the processing sections 122 to 125 corresponding to the decided algorithm.
  • the image data compressed by the image compression processing section 121 in this way is sent to the image data transmission section 127.
  • the image data transmitting unit 127 sends the compressed image data to the receiving device 2 via a base station or an exchange (not shown) under the control of the control unit 128.
  • the compressed image data output from the transmitting device 1 is temporarily sent to the management center 103, and the compressed image data is transmitted from the management center 103 to a receiving device via a base
  • the image data receiving unit 135 of the receiving device 2 Upon receiving the compressed image data, the image data receiving unit 135 of the receiving device 2 sends the compressed image data to the compressed image data decoding unit 136. Under the control of the control unit 13 3, the compressed image data overnight decoding unit 13 6 uses the decoding algorithm corresponding to the image compression algorithm selected and permitted for use, and The data is decrypted and sent to the display unit 13 7. As a result, the image captured by the video camera unit 6 of the transmission device 1 is displayed on the display unit 1337. Also, in the receiving device 2, the user inputs an algorithm for automatically selecting (optimizing) the image compression algorithm according to the above situation from the user instruction input unit 132, or the user is interested in the image.
  • the area (point of interest)
  • the control unit 1333 performs an automatic selection (optimization) for the algorithm based on the instruction signal from the user instruction input unit 132.
  • a request signal for an algorithm or an algorithm for predicting a point of interest is generated and sent to the request transmission permission receiving unit 134.
  • the request signal is transmitted from the request transmission permission receiving section 134 to the management center 103.
  • the management center 103 authenticates the request signal, transmits the request signal to the transmitting device 1 after confirmation, and transmits the permission signal to the receiving device 2.
  • the control unit 128 of the transmitting apparatus 1 analyzes the content of the request signal, and based on the analysis result, selects any of the sub-sample compression, object code compression, class classification adaptive prediction compression, and hierarchical coding.
  • the algorithm is automatically selected according to the situation, or the user's attention point (user's attention object image) is predicted, and the compression rate for the attention object image is set to be lower than that of other images so as to obtain high image quality.
  • the image compression processing section 122 is controlled.
  • the image data compressed by the image compression processing unit 121 in this way is transmitted from the image data transmission unit 127, and is transmitted to the image of the receiving device 2 via a base station, an exchange, and the like.
  • the data is received by the data receiving section 135.
  • the compressed image data decoding unit 1336 of the receiving device 2 uses a decoding algorithm corresponding to the image compression algorithm selected by the above algorithm automatic selection under the control of the control unit 133. Then, the compressed image data is decoded and sent to the display unit 1337.
  • the control unit 1333 An inquiry signal for permission to use the automatic power consumption control algorithm is sent to the management center 103 via the request transmission section 134.
  • the receiving device 2 can use the algorithm for power consumption control, and the power consumption control unit 13 1 Automatically controls power consumption.
  • the management center 103 receives the receiving device (user) that transmitted the use permission and the processing that permitted the use, that is, the image compression algorithm and the automatic algorithm selection (optimum )
  • the receiving device that transmitted the use permission and the processing that permitted the use
  • the image compression algorithm and the automatic algorithm selection optimum
  • the usage history information such as the algorithm for predicting the score and the algorithm for automatically controlling the power consumption
  • the usage fee for the user of the receiver 2 is calculated and the usage fee is charged.
  • the user of the receiving device 2 pays the fee corresponding to the usage fee bill to the management center 103.
  • the processing by each image compression algorithm, the processing by the algorithm for automatic selection (optimization), and the processing by the algorithm for predicting the user's attention point are actually performed by the transmitting device.
  • the processing is performed in step 1, it is the receiving apparatus 2 that selects these algorithms and receives the benefits, so that the charging according to those algorithms is performed by the receiving apparatus that receives the benefits. Performed for device 2 (user).
  • the billing amount for each algorithm used is defined, for example, as the sum of the charges for each request in each tier. Therefore, for example, when only the above-mentioned image compression algorithm is used, a usage fee preset for each of the sub-sample compression, object code compression, class classification adaptive prediction compression, and hierarchical coding is charged. Further, for example, when an algorithm for the automatic algorithm selection (optimization) is used, in addition to the usage fee of the algorithm for the automatic algorithm selection, the image compression selected by the automatic algorithm is selected. The usage fee of the algorithm for the service is also charged. Similarly, in the case where the algorithm for predicting the user's attention point ⁇ ⁇ the automatic selection algorithm of power consumption is used, the usage fee is also added and billing is performed. It should be noted that the usage fee can be charged to the user sequentially or collectively over a certain period based on the calculation result of the usage fee. In addition, the billing may be performed using a time-based system.
  • the user of the receiving device 2 that is online or offline from the management center 103 is charged for the usage fee, and the user transfers the fee to a designated account or the like online or offline according to the request.
  • An accounting method is disclosed.
  • the management center 103 stores the user account number and the account number of the management center 103 for each user identifier of the receiving device 2 in advance, and stores the user account number in the request signal of the user of the receiving device 2 in advance.
  • the charge calculation system 106 will charge the user By calculating the money and transmitting at least the user's account number, the account number of the management center 103, and the amount information corresponding to the amount charged to the user to an external settlement sensor, the system is configured to perform immediate settlement. Is also good.
  • the user of the receiving apparatus only has to indicate his or her request, for example, the above image quality, and does not necessarily have to be conscious that he or she is selecting an algorithm.
  • FIG. 22 shows a flow of processing in, for example, the transmission device 1 of FIG.
  • the request receiving unit 1 26 waits for reception of a request signal of the algorithm as a process of step S 101, and when the request signal is received, controls the request signal.
  • control unit 128 When receiving the request signal of the above algorithm, the control unit 128 controls the image compression processing unit 121 to switch the algorithm to be used as the process of step S102. That is, the control unit 128 is configured to use the image compression processing unit 122 so as to use the processing unit corresponding to the algorithm specified by the request signal among the processing units 122 to 125. Control.
  • the image compression processing unit 121 when the control of the algorithm is controlled by the control unit 128, the coding using the processing unit corresponding to the algorithm for which the switching is specified is performed as the process of step S103. (Image compression), and the compressed image data obtained by the coding is sent to the image data transmission section 127.
  • the image data transmitting unit 127 receives the compressed image data from the image compression processing unit 121 as base station 3, 5, exchange 4, and management sensor 103 as the processing of step S104. To the receiving device 2 via the
  • the transmitting device 1 determines the end of the process as the process of step S105, returns to the process of step S101 if the process is not completed, and returns to the process of FIG. 22
  • the processing in the transmission device 1 of 2 is ended.
  • FIG. 23 shows a flow of processing in the receiving device 2 of FIG. 21.
  • an instruction signal for instructing, for example, image quality is input from the user instruction input unit 132 by the user, and a request signal (use Is generated, the request signal is transmitted from the request transmission permission receiving unit 134 to the management center 103 in step S110 (the request signal After the transmission, the control unit 133 checks whether the request transmission permission receiving unit 133 has received the permission signal from the management center 103, and whether the non-permission signal is returned or is constant. If the permission signal has not been transmitted after the elapse of the time, the processing is terminated, and if the permission signal has been transmitted from the management center 103, the compressed image is thereafter transmitted from the transmission device 1. Data will be sent.
  • the image data receiving unit 135 waits for the compressed image data, and when the compressed image data is received in step S112, the compressed image data is decoded by the compressed image data decoding unit. Send to 1 3 6
  • the compressed image data decoding unit 1336 Upon receiving the above-mentioned compressed image data, the compressed image data decoding unit 1336 decodes (decodes) the compressed image data by a process reverse to the compression, and displays the decoded image signal on the display unit 1337. send. As a result, an image is displayed on the display unit 137.
  • step S114 the control unit 133 determines whether or not an end request instruction is given from the user instruction input unit 132, and the end request is made from the user instruction input unit 132. If the instruction has not been issued, the process returns to step S110. If the instruction for the end request has been issued, an end signal is generated in step S115, and the end signal is received as a request transmission permission reception. The information is transmitted to the management center 103 via the section 134. The management center 103 causes the transmitting device 1 to end the transmission, thereby ending the processing.
  • FIG. 24 shows the flow of processing in the management center 103 of FIGS. 21 and 19.
  • the explanation will be made using the internal configuration of the management center in Fig. 19 as appropriate.
  • the management system 105 waits for reception of an algorithm request signal (algorithm request signal) from the receiving device 1 as step S121, and when the request signal is received, In the process of step S122, the validity of the request from the receiving device 2 is determined using the information held in the authentication memory 104. In the determination process of step S122, it is determined that If it is determined, the management system 105 sends a non-permission signal as a rejection signal to the receiving device 2, and ends the processing.
  • algorithm request signal algorithm request signal
  • the management system 105 determines that the request is valid in the determination processing in step S122, the management system 105 transmits the request signal (signal representing the requested algorithm) to the transmission device 1. Also, the information indicating the requested algorithm and the receiving device 2 is sent to the fee calculation system 106.
  • the fee calculation system 106 Upon receiving the above-mentioned requested algorithm and the information indicating the receiving device 2 from the management system 105, the fee calculation system 106 receives the information and the fee calculation table 100 as the process of step S125. Calculate the usage fee using the usage fee calculation table in 7.
  • the management system 105 determines whether or not the end signal has been transmitted from the receiving device 2, and if not, returns to the process of step S122 to continue the process.
  • the charge calculation system 106 adds the charges for each processing up to now as the processing in step S127, and As step S128, the user of the receiving device 2 is charged for the usage fee obtained by the calculation.
  • the control unit 133 under the control of the control unit 133, the user's account number, the account number of the management center 103, and The money amount information may be transmitted to an external settlement center.
  • Steps S127 and S128 may be performed after the processing of step S129.
  • the method of optimizing the algorithm differs depending on what is used as the basis.
  • the example in which the user selects processing (algorithm) based on image quality was used. Take for example. That is, the white In the dynamic selection (optimization) algorithm, first, the algorithm with the lowest usage fee is selected. If the image quality is worse than the limit, an algorithm that can obtain a higher quality image is used. In this example, the algorithm is changed automatically. In the present embodiment, an example in which an algorithm for image compression is automatically selected is described. However, the present invention is not limited to automatic selection of an algorithm for image compression.
  • the automatic selection (optimization) is applicable, and the standard for optimization is not limited to the usage fee, but may be quality, processing time, overnight transfer time, and the like.
  • the control unit 1 288 of the transmitting apparatus 1 in FIG. 71 As the subsample compression, object code compression, class classification adaptive prediction compression, hierarchical coding, and the like, the algorithm with the lowest usage fee is selected. As a result, the image compression processing unit 121 performs image compression processing by the processing unit corresponding to the algorithm with the lowest usage fee.
  • the usage fee is determined according to the height of the image compression algorithm, that is, for example, the usage fee for sub-sample compression, which is the simplest compression process, is 100 yen each time
  • the fee for using the hierarchical coding, which is an advanced process is 300 yen each time.
  • the usage fee for predictive compression is 400 yen each time, the subsample compression with the lowest usage fee will be selected.
  • the image compression processing section 121 decodes the data after the compression processing using the selected algorithm for image compression as the processing of step S172 (local decoder). The difference between the image obtained as a result and the original image is calculated, and the difference value is returned to the control unit 128.
  • the control unit 128 that has received the difference value determines whether or not the difference value is equal to or less than a predetermined threshold value as the process of step S174.
  • the difference value is not smaller than or equal to the predetermined threshold value means that the image quality of the image obtained by the compression processing using the selected image compression algorithm is: It indicates that it is getting worse than the limit. Therefore, the control unit 128 at this time changes the selected algorithm so as to use an image compression algorithm that can obtain higher quality image quality. If the sub-sample compression has been selected at the time of the previous selection, the object code compression algorithm, which is a more advanced algorithm, is selected. After that, the image compression processing unit 122 performs compression processing using the newly selected algorithm, calculates a difference value again, and further, the control unit 128 controls the difference value. Is determined whether or not is less than or equal to a predetermined threshold. This series of processing is repeated until the difference value becomes equal to or less than a predetermined threshold value.
  • the image compression processing unit 121 selects the image compression selected at that time as the processing in step S175.
  • the image data compressed by the algorithm is output as a processing result via the image data transmitting unit 127.
  • the default values are used for the processing parameters in each image compression algorithm. That is, if the processing parameters (quantization coefficient, quantization bit, sampling frequency, bit rate) are set to the default values, the compression ratio of the natural image in each algorithm is set to be about 1/2. I will be there. Thereafter, the control unit 128 determines in step S176 whether or not a termination request has been made from the receiving device 2 side, and if no termination request has been made, returns to the process of step S171. When a termination request is made, the process is terminated.
  • the above is the operation when the algorithm for automatic selection (optimization) of the algorithm is instructed.
  • the usage fee of the algorithm for the optimization is added to the usage fee corresponding to the selected image compression algorithm when the difference value becomes equal to or less than the predetermined threshold. The added amount will be charged.
  • a method that is determined in advance a method that presents a processed image to a user and selects the user, and the like can be considered.
  • the image quality obtained by once performing image compression is examined ( Of the image compression algorithm to be finally selected as the optimal one.
  • the feature amount of the image is detected first, and the image compression algorithm is determined based on the feature amount. May determine the optimal algorithm.
  • an image with a large change in values such as brightness, motion, and color in the image may not be able to obtain sufficient image quality using a simple compression algorithm.
  • the algorithm is automatically selected.
  • a feature of an image is to detect whether the image is a computer graphic (CG) or game image, etc., and to automatically select a compression algorithm suitable for those images. .
  • CG computer graphic
  • the compression is not repeated, so that the processing speed can be increased, and the image characteristics and the compression can be improved. If the algorithm association is set in advance, a more optimal compression algorithm can be selected at high speed.
  • the sub-sample is a process of thinning out, for example, one pixel out of two pixels of each pixel constituting the image.
  • this includes not only the example of thinning out one pixel for every two pixels, but also the thinning out of one pixel for every three pixels and one pixel for every four pixels.
  • an object code among the algorithms for image compression will be described.
  • An object code is created (extracted) as an object image if it does not change (deform) in the time direction in the image, and once the information of the portion (object image) that does not change much is transmitted, it is not transmitted.
  • this is a compression method that compresses information by transmitting the position information (and motion information) of the object image.
  • This object can be considered to be substantially the same as the object described with reference to FIG.
  • FIG. 26 there is a moving image of 30 frames / sec as shown in FIG. 26A, and one frame of the moving image includes a stationary sky and a mountain. Assume that there are 51, a moving cloud 152 and a car 1553. From this one frame image, as shown in Fig. 26B, an object image of the background 151, an object image of the car 1553, and an object image of the cloud 1552 are extracted. Will be.
  • a motion vector representing the direction and amount of motion of each object is obtained by, for example, block matching between the frames in FIG. 26A.
  • shape information is obtained for each object of the background 151, the car 1553, and the cloud 152, and after transmitting the shape information, the initial position information of each object and each frame are transmitted. By transmitting the above motion vector information or transmitting position information for each frame, the amount of transmission data can be greatly reduced.
  • the receiving side reconstructs an image based on the previously acquired shape information of the object and the positional information or the motion vector received for each frame.
  • FIG. 27 shows the flow of processing of the object code compression processing section 123 of FIG.
  • the object code compression processing unit 123 sets the initial processing as step S131. I do.
  • initial image data is obtained from the video camera unit 6, an object existing in the image is extracted as an object image, and data (shape information and the like) used in a subsequent process is stored in an object table. Acquire and retain.
  • the object code compression processing section 123 sequentially executes the image data to be processed from the video camera section 6 in step S132. The evening is acquired, and the information about the object image previously stored in the object table such as the image a unit time ago (for example, one frame before) is acquired.
  • the object code compression processing section 123 divides the current image into object images corresponding to the object images held in the object table. In this case, for example, a part having the same color as the object image held in the object table is set as the same object image, or the above-described method of extracting the object based on the click data is used.
  • the object code compression processing section 123 performs, as the processing of step S135, information on the motion of each object image between the object images held in the object table and the current frame object image (The motion vector is calculated and extracted, and the motion vector is transmitted to the receiving device 2 together with the initial position information in step S136.
  • a motion vector is obtained by block matching.
  • each object image is The movement can be accurately obtained by the matching.
  • the object code compression processing section 123 determines in step S137 whether a new object image other than an object image that has already been extracted and whose information is held in the object table has not appeared. Find out. If no new object image is detected in step S137, the process proceeds to step S140. On the other hand, if a new object image is detected, the process proceeds to step S138 to execute the new object image. Is added to the object table, and information on the new object image (object image data, initial position information, motion vector information, etc.) is transmitted to the receiving device 2 as step S139. . After the processing in step S139, the flow advances to the processing in step S140.
  • the object code compression processing section 123 stores each object image of the current frame and its position information or motion vector information in the object table for the next processing, Then go to step S 1 4 1 Then, it is determined whether or not a termination request has been made from the receiving device 2 side. If no termination request has been made, the process returns to step S132, and if a termination request has been made, the process ends. .
  • the above is the flow of the object code compression process.
  • Tl and ⁇ 2 in the figure indicate two temporally consecutive frames, ⁇ 1 is a past frame, and ⁇ 2 is a current frame.
  • This coefficient is the prediction coefficient.
  • the square of the error with respect to the true value of the estimated value y of the future pixel expressed by a linear linear combination of the pixel value xi and the coefficient wi is the minimum by the least square method.
  • one set of coefficients is determined for each frame or class.
  • n 16.
  • the predicted value y of the future pixel in the current frame T2 is represented by a linear linear combination wlxl + w2x2 + to + wl6xl6 of 16 tap input pixels.
  • the coefficient wi in this linear linear combination model the coefficient that minimizes the residual between the actual value and the estimated value represented by the linear linear combination is determined.
  • X, W, and Y are matrices as shown in Equation 2 below.
  • the coefficient w that minimizes the error from the actual value is obtained by the least squares method.
  • a residual equation of the following Equation 3 is created by adding the residual matrix E to the right side of the observation equation. That is, in the least squares method, the square of the elements of the residual matrix E in the residual equation, that is, the coefficient matrix W that minimizes the square error is obtained.
  • Equation 4 the condition for finding the most probable value of each element wi of the coefficient matrix W from the residual equation 3 is the condition for minimizing the sum of the m residuals corresponding to the pixels in the block by squaring them. Should be satisfied. This condition is expressed by Equation 4 below.
  • Equation 5 is obtained from the residual equation 3. ⁇
  • V Normal equation 7 is a simultaneous equation with exactly n unknowns.
  • the most probable values of the undetermined coefficients wi can be obtained.
  • the matrix for wi in Equation 7 is regular, it can be solved.
  • the undetermined coefficient wi is obtained using Gauss-J ordan elimination method (also known as sweeping method). In this way, one set of coefficients for representing future pixels is determined in one frame.
  • the average value of the coefficients determined in each frame or the coefficient of the maximum appearance frequency is stored in the coefficient memory 205 described later. .
  • pixels indicated by ⁇ and ⁇ in the figure indicate those used for the linear linear combination model, and pixels indicated by ⁇ in the figure indicate pixels used for class classification. That is, four of the sixteen pixels are also used for class classification.
  • each of the above four pixels is 8 bits, the number of combinations of the values of the four pixels becomes extremely large, and it cannot be said that the classification is realistic. Therefore, as described later, the number of bits of each of these four pixels is compressed by encoding. More specifically, each pixel is converted to one bit by ADRC (encoding adapted to dynamic range). Compress to code.
  • ADRC encoding adapted to dynamic range
  • FIG. 29 shows an example of a configuration for learning in class classification.
  • the input image data to be input to the input terminal 201 a large number of still image data of different patterns are preferable.
  • the input image data is supplied to a time-series conversion circuit 202 and a least-squares method operation circuit 203.
  • the time-series conversion circuit 202 synchronizes, for example, a linear first-order combination model during the input image data of raster scanning and a plurality of pixel data used for class classification.
  • the output data of the time series conversion circuit 202 is supplied to the arithmetic circuit 203 and the class classification circuit 204.
  • the class classification circuit 204 generates an index corresponding to a three-dimensional change of an image as described above. This index is supplied to the arithmetic circuit 203.
  • the execution circuit 203 determines one set of coefficients w i for each class indicated by the index by the above-described least squares algorithm with respect to the spatiotemporal model shown in FIG. This coefficient is stored in the coefficient memory 205.
  • FIG. 30 shows a configuration of an example of the encoder for measurement coding according to the present invention.
  • the coefficient memory 215 stores the coefficients obtained by the learning described above for each class.
  • the input image data from the input terminal 211 is supplied to the time-series conversion circuit 212, and the output data is supplied to the class classification circuit 214 and the estimated value generation circuit 211.
  • the time-series conversion circuit 212 combines pixel data input in accordance with the raster scanning order, for example, as shown in FIG. 28, into pixels sequentially transmitted in the past and pixels transmitted in the future. Output at the same time.
  • the class classification circuit 2 14 is supplied with data of four pixels used for class classification.
  • the index from the class classification circuit 214 is supplied to the coefficient memory 215, and a set of coefficients corresponding to the class is read from the memory 215.
  • the read coefficient is supplied to the estimated value generation circuit 2 16, and an estimated value is generated using the pixel data from the time series conversion circuit 2 12 ′.
  • This estimated value is supplied to the subtraction circuit 218.
  • the input image data via the delay circuit 217 is supplied.
  • the time series conversion circuit 2 1 2, the class classification circuit 2 1 4, the coefficient memory 2 1 5, and the estimated value generation circuit 2 1 6 constitute a speech decoder.
  • the subtraction circuit 218 generates a difference value between the true value (actual data) and the estimated value. This difference value is encoded by an encoder 219 for compression encoding, and an encoded output (code) is taken out to an output terminal 220.
  • entropy coding is performed by a Huffman code obtained in advance based on the occurrence probability. Further, the pixel value itself is supplied to the encoder 219 for refreshing, and the pixel value is inserted every predetermined transmission data.
  • Other compression coding can be employed. For example, after blocking the difference values, orthogonal transformation such as DCT transformation may be performed, and entropy coding may be performed. This compression encoded output is transmitted.
  • the encoder shown in FIG. 31 has a configuration in which the coefficient can be updated in relation to the input image.
  • a least-squares arithmetic circuit 2 13 similar to that for learning is provided, and the coefficient memory 2 15 can be updated with the coefficient from the arithmetic circuit 2 13.
  • the index from the classification circuit 2 14 is supplied to the arithmetic circuit 2 13 and the coefficient memory 2 15, and the input image data is supplied to the arithmetic circuit 2 13, and the arithmetic circuit 2 1 3 Is supplied to the coefficient memory 2 15.
  • the configuration may be such that the coefficients are updated based on the result of learning not only for each frame of the input image but also for a considerably large number of frames.
  • coefficients previously determined by learning may be stored in the coefficient memory shown in FIG. 31 and may be changed according to the input image.
  • the operation circuit 2 13 of the least squares method may be selectively operated.
  • FIG. 32 shows an example of the classifying circuits 204 and 214.
  • Input image data (data of 4 pixels) is sequentially supplied to a 1-bit ADC circuit 227.
  • the ADRC circuit 227 detects the maximum value and the minimum value of the values of the four schemes, and detects the dynamic range DR that is the difference between the maximum value and the minimum value.
  • the value of each pixel is divided by the dynamic range DR.
  • the quotient is compared with 0.5, and a code of "1" is formed when the quotient is greater than 0.5, and a code of "0" is formed when the quotient is less than 0.5.
  • the ADCR circuit 227 compresses the value of each pixel into one bit ("0" or "1").
  • the output of the ADCR circuit 227 is subjected to serial / parallel conversion by the shift register 228.
  • L 1, L 2, L 3, and L 4 of each one bit from the shift register 228 are stored in the register 229. These four bits (Ll, L2, L3, L4) are the index.
  • the ADCRC circuit 227 has a quantization bit number of one bit, but may have a large number of bits such as two bits. Alternatively, variable bits may be set for each pixel block such as four pixels.
  • FIG. 33 shows the configuration of the receiving apparatus 2 side that receives and decodes the data (received code) that has been encoded for the adaptive classification prediction as described above.
  • the received code input to the input terminal 21 is supplied to the decoder 243 for compression encoding, and the reception coefficient from the input terminal 242 is supplied to the coefficient memory 244.
  • the coefficient memory 244 outputs a coefficient corresponding to the class in response to the index from the class classification circuit 245.
  • the contents of the coefficient memory 244 are not changed.
  • the content of the coefficient memory 244 needs to be the same as that of the transmitting side.
  • the coefficients are supplied to an estimated value generation circuit 246.
  • Decoded difference data is obtained from the decoder 243, and is supplied to the adder 247.
  • the pixel value inserted for the refresh is supplied to the estimated value generation circuit 246 and used for generating the estimated value.
  • the adder 247 adds the decoded difference value and the estimated value from the estimated value generation circuit 246 to generate a decoded value.
  • This decoded value is supplied to time series conversion circuits 248 and 249.
  • the time series conversion circuit 248 A plurality of necessary decoded pixel data are put together.
  • the time series conversion circuit 249 converts the decoded signal so as to be displayed on the display unit 1337, and the signal is sent from the output terminal 250 to the display unit 1337.
  • the decoded pixel data from the time series conversion circuit 248 is supplied to the estimated value generation circuit 246, and the decoded pixel data required for class classification is supplied to the class classification circuit 245.
  • the class classification circuit 245 has a configuration of a 1-bit ADC circuit, and the index from the circuit is supplied to the coefficient memory 244.
  • the configuration of each circuit of the decoder shown in FIG. 33 is the same as that described for the encoder, and description thereof will be omitted.
  • each process is divided into basic instructions, and the power consumption of the instructions is set in advance. It is considered that the value of the electric energy for each instruction will depend on the hardware. By using the value of the amount of power for each command, it is possible to reduce the amount of power used.
  • charging is performed in accordance with the use of the algorithm for automatic control of power consumption.
  • the vertical axis indicates the amount of power used, and the horizontal axis indicates one clock (one process).
  • the minimum power required for each very detailed process is checked, and control is performed to supply the required power to the process that will be performed in the future. In other words, control is performed so as to reduce the amount of power when performing a process that does not require much power, and to increase the amount of power when performing a process that requires power.
  • Fig. 35 shows the flow for determining whether to execute power control according to the processing method (other various processes) in the automatic power consumption control algorithm.
  • the power consumption control unit 1331 shown in FIG. 21 is based on an automatic power consumption control algorithm.
  • the processing method used is Is determined, and the automatic power consumption control algorithm is used. Those that are used are set so as to execute the power control function as step S152, while those that are not used are set so as not to execute the power control function as step S153.
  • FIG. 36 shows the flow of processing when the power consumption control section 1331 is set to execute the power control function in step S152 of FIG. 35.
  • the power consumption control unit 1331 monitors the next process as step S161, and furthermore, as step S162, determines the amount of power required for the process. Calculate (It is necessary to supply the value of the electric energy which is set in advance by the table referred to here).
  • the power consumption control unit 1331 supplies power based on the calculated values from a power supply unit (not shown) to each circuit inside the device as step S1663.
  • a power supply unit not shown
  • each circuit in the device actually executes the above-described process.
  • the power consumption may be configured by, for example, setting a sleeve state.
  • the power consumption control unit 1331 makes an end determination, and if not finished, returns to step S1661, and ends the automatic power control algorithm when it ends.
  • the charge amount can be changed using the level of the processing level. For example, the charge amount may be changed according to the monitoring time interval, or the power amount control may be changed according to the optimization level.
  • the series of processes described above can be performed by hardware or can be performed by software.
  • a program constituting the software is installed on a computer incorporated in the transmission device 1 or the reception device 2 as dedicated hardware, a general-purpose computer, or the like. .
  • a recording medium on which is recorded will be described.
  • the program for executing the above-described processing can be recorded in a hard disk or a semiconductor memory as a recording medium built in the computer in advance.
  • the program is temporarily or temporarily stored in a recording medium such as a floppy disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto Optical) disk, DVD (Digital Versatile Disc), magnetic disk, or semiconductor memory. Can be permanently stored (recorded).
  • This program can be installed from a recording medium such as the one described above, and can be transferred from a download site to a computer via a satellite for digital satellite broadcasting wirelessly, or transmitted over a LAN (Local It can be transferred to a computer via a network such as an Area Network) or the Internet, and installed on a built-in hard disk or the like in the computer.
  • a recording medium such as the one described above
  • a satellite for digital satellite broadcasting wirelessly or transmitted over a LAN (Local It can be transferred to a computer via a network such as an Area Network) or the Internet, and installed on a built-in hard disk or the like in the computer.
  • LAN Local Area Network
  • steps for describing a program for performing various processes do not necessarily need to be processed in chronological order in the order described as a flowchart, and are executed in parallel or individually. It also includes processing (for example, parallel processing or processing by objects).
  • FIG. 37 illustrates a configuration example of the above-described computer.
  • the computer shown in FIG. 37 has a CPU (Central Processing Unit) 142 built-in.
  • An input / output interface 145 is connected to the CPU 142 via a bus 141, and the CPU 142 is connected to the keyboard and mouse by the user via the input / output interface 145.
  • a command is input by operating the input unit 147 composed of the following, a program stored in a ROM (Read Only Memory) 143 corresponding to the semiconductor memory is executed according to the command.
  • the CPU 142 may be a program stored on the hard disk 140, a program transferred from the satellite or the network, received by the communication unit 148 and installed on the hard disk 140, or mounted on the drive 149.
  • the loaded program is loaded into RAM (Random Access Memory) 144 and executed. Then, the CPU 144 sends the processing result to a display unit 144 constituted by an LCD (Liquid Crystal Display) or the like via the input / output interface 144 as necessary. Output.
  • RAM Random Access Memory
  • the change of the time resolution and the spatial resolution of the image is performed, for example, by performing discrete cosine transform on the image in the transmitting device 1 to determine the order of the coefficient to be transmitted, or the quantization. It is also possible to do so by changing the quantization step.
  • the transmitting device 1 when displaying an image at a normal time resolution, for example, for an object image (region of interest), the transmitting device 1 performs chain coding on the contour and pixel values (colors) constituting the object image.
  • the average value of the object image is obtained as a representative value, and they are coded by entropy such as Huffman coding, and the receiving device 2 displays the object image area painted with the color as the representative value in the area. Is also good.
  • the spatial resolution of the image is improved, but conversely, the temporal resolution can be improved. Further, in the above-described example, the spatial resolution within the priority range as a part of the image is improved. However, the spatial resolution of the entire image can be improved.
  • the image is separated into the background and the object, and the processing is performed.
  • the processing can be performed without performing such separation.
  • the algorithm software layer is selected and the switching is enabled, but the algorithm and the hardware control program referred to in the present invention include a process of switching the hardware itself.
  • the present invention includes the switching of the hardware and the billing process corresponding thereto.
  • the present invention is applicable not only to image data but also to audio data.
  • the present invention can be applied to a case where a characteristic amount of a voice (for example, a pitch, a desired portion of a human voice, each musical instrument in music, etc.) is extracted from a certain fundamental frequency included in a voice signal. is there.
  • Japanese Patent Application Laid-Open No. H10-1646552 discloses, for example, that the image quality desired by A video-on-demand transmission device and a terminal device that can supply a corresponding video program and charge according to the desired image quality are shown.
  • the technology described in this publication uses the same kind of algorithm as MPEG1 or MPEG2 as a processing method for determining the image quality of a supplied video program. The amount charged varies depending on whether a compressed video program was supplied. That is, the technology described in this publication selects image quality using basically the same algorithm as MPEG 1 and MPEG 2.
  • the same type of algorithm is used, so that the receiving end can reproduce a video program using any of the MPEG1 and MPEG2 algorithms.
  • the algorithm on the transmitting side is the same type of algorithm so that the receiving side can handle it.
  • the transmission system according to the present invention differs in that completely different algorithms such as sub-samples, object codes, and adaptive prediction codes for class classification are selected as described above. Even if is selected, the data can be reproduced on the receiving side. Further, in the communication system according to the present invention, it is possible to perform not only the above-mentioned different algorithm selection but also the automatic selection of the compression method and the prediction of the point of interest. Further, in the system according to the present invention, different software layers can be selected as in automatic selection control of power consumption.
  • the software layer / algorithm to be used is specified from among a plurality of different software layers and algorithms, and the above-described instruction is selected from among a plurality of different software layer algorithms.
  • the software layer or algorithm selected is selected, processing is performed using the selected software layer or algorithm, and a usage fee is paid (charged) according to the software layer or algorithm used.
  • Data provision and billing according to various demands of users, ie performance of processing results (image quality, sound quality, etc.), power consumption, processing time, data transfer time, processing It is possible to charge according to the merits received by the user, such as the processing result, and also to realize a more satisfactory and more realistic charging for the data provider.

Description

明細書 データ処理システム及びその方法、 通信システム及びその方法、 課金処理装置 及ぴその方法 技術分野 本発明は、 送受信されたデータに応じた利用料金を支払う処理装置及びその方 法、 送受信されたデータに応じた課金を行う課金管理装置及びその方法、 通信シ ステム及びその方法、 通信システムを構成する通信装置及びその方法、 送受信さ れたデ一夕に応じた課金処理を情報処理装置に実行させるプログラムを記憶した 媒体に関する。 冃景技術 例えば、 データ提供者と、 そのデ一夕提供者より提供されるデ一夕を利用する 利用者とからなるようなデ一夕提供サービスなどにおいて、 その提供したデータ の利用料を利用者から徴収する場合の課金形態には、 例えば、 提供されたデータ 量に応じた従量制の課金や、 デ一夕量によらない定額制の課金などがある。
また、 U S P 6 0 4 1 3 1 6には、 通常提供されるデ一夕は低品質であるが、 ユーザが利用料を追加することにより、 より高品質なデータを要求することが可 能なネヅトワークシステムが鬨示されている。
また、 特開平 1 0— 1 6 4 5 5 2号公報には、 例えば視聴者の希望する画質に 対応した映像番組を供給可能にするとともに、 その希望した画質に応じた課金を 行うビデオデマンド送信装置及び端末装置が開示されている。 この公報に記載さ れた技術は、 供給された映像番組の画質を決定する処理方法として、 M P E G 1、 M P E G 2のような同種のアルゴリズムを用いており、 これら M P E G 1、 M P E G 2のいずれかを用いて圧縮された映像番組を供給したかによつて課金額が変 えられる。 このように、 ユーザに対して供給されるデータに対する信号処理手法などの、 装置のアプリケーション層の機能に応じてユーザに対する課金を変更するが技術 が鬨示されている。
しかし、 装置には、 装置の内部回路に電力供給をするなどのハードウェア制御 層の記録再生のも有するものであるが、 ハードウェア制御層をユーザが選択的に 高機能化するようなシステムは開示されていない。
また、 上述の技術では、 ユーザが指定した信号処理手法に固定されてしまい、 伝送状態などが変更しても、 品質、 信号処理手法は固定され、 ユーザにとって最 適なサービスが提供されていない。 発明の開示 そこで、 本発明はこのような状況に鑑みてなされたものであり、 利用者の様々 な要求に応じたデータ提供及び課金、 すなわち、 利用者が受ける利益に応じた課 金を可能にするとともに、 デ一夕提供者にとっても提供するデータの価値に応じ た適正な課金を実現可能とする、 データ処理装置及びその方法、 課金管理装置及 びその方法、 通信システム及びその方法、 通信装置及びその方法、 さらにデータ 処理装置等で実行されるプログラムを記憶した記憶媒体を提供することを目的と する。
上記のような目的を達成するために提案される本発明に係るデータ処理システ ムは、 少なくともアプリケ一シヨン層とハ一ドウヱァ制御層に対して所望のメソ ッドを指示可能な指示入力部と、 アプリケーション層に関わるメソッドを選択的 に実行可能な信号処理部と、 ハ一ドウエア制御層に関わるメソヅドを選択的に実 行可能なハードウェア制御部と、 指示入力部からの指示に応じて、 信号処理部或 いはハードウェア制御部が指示されたメソッドを実行するように制御する制御部 とを備える。
ここで、 信号処理部は、 複数のメソッドを記憶する記憶部を備える。 そして、 制御部は、 指示入力部からの指示に応じて一のメソッドを記憶部から読み出すと 共に実行する。 本発明に係るデータ処理システムは、 更に、 コンテンツデータを送信する送信 部と、 送信されたコンテンツデ一夕を受信する受信部と、 受信されたコンテンツ データを出力する出力部とを備える。 信号処理部は、 制御部の制御に基づいて、 指示入力部からの指示に応じて特定されたメソッドを実行することにより、 入力 されるコンテンヅデ一夕に対して信号処理し、 この信号処理されたコンテンヅデ 一夕を送信部に出力する。
また、 本発明は、 課金管理装置を備えた通信システムであり、 少なくともアブ リケーシヨン層とハードウヱァ制御層に対して所望のメソヅドを指示可能な指示 入力部と、 指示入力部により指示されたメソッドを要求する要求信号を送信する 要求信号送信部と、 要求信号に対する返信を受信する受信部と、 アプリケーショ ン層に関わるメソッドを選択的に実行可能な信号処理部と、 ハードウエア制御層 に関わるメソッドを選択的に実行可能なハードウェア制御部と、 指示入力部の指 示に応じて、 信号処理部或いはハードウェア制御部が指示されたメソッドを実行 するように制御する制御部とを備える処理装置と、 要求信号を受信する要求信号 受信部と、 受信された要求信号に基づいてメソッドの利用可否を判断する判断部 と、 判断部で判断された判断結果を受信部に送信する判断結果送信部と、 信号処 理部或いはハ一ドウエア制御部が記憶する複数のメソッドの各々の利用料金情報 を記憶する利用料金記憶部と、 利用料金記憶部に記憶された情報に基づいて、 指 示入力部に対して指示するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情報を出力する演算手段と備える課金管理装置とを備える。
本発明において用いられる課金処理装置は、 外部装置から、 当該外部装置のァ プリケーシヨン層とハードウヱァ制御層の所望のメソッドの利用許可を要求する 要求信号を受信する要求信号受信部と、 この受信部により受信された要求信号に 基づいてメソッ ドの利用可否を判断する判断部と、 この判断部の判断結果を受信 部に送信する判断結果送信部と、 複数のメソッドの各々の利用料金情報を記憶す る利用料金記憶部と、 利用料金記憶部に記憶された利用料金情報に基づいて、 指 示入力部に対して指示するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情報を出力する演算部とを備える。
ここで、 金額情報を演算する演算部は、 利用料金記憶部に記憶された情報に基 づいて、 複数のメソッドから一のメソッドを自動的に選択する自動選択メソッド の利用料金と、 当該自動選択メッツドが選択した圧縮アルゴリズムに対応するメ ソッドの利用料金との和により金額情報を演算する。
更に、 本発明は、 第 1の通信装置、 第 2の通信装置及び課金処理装置からなる 通信システムであり、 この通信システムを構成する第 1の通信装置は、 少なくと も送信装置のアプリケーション層と受信装置のハードウェア制御層に対して所望 のメソッドを指示可能な指示入力部と、 この指示入力部により'指示されたメソッ ドを要求する要求信号を送信する要求信号送信部と、 要求信号送信部に応じたメ ソヅ ドにより処理されたコンテンツデータを受信する受信部と、 ハードウェア制 御層 関わるメソッドを選択的に実行可能なハードウェア制御部と、 指示入力部 の指示に応じて、 ハードゥヱァ制御部が指示されたメソッドを実行するように制 御する第 1の制御部を備える。 また、 第 2の通信装置は、 アプリケーション層に 関わるメソヅドを選択的に実行し、 入力されるコンテンヅデ一夕に対して信号処 理する信号処理部と、 要求信号送信部から送信される送信される要求信号に応じ て、 信号処理部が指示されたメソッドを実行するように制御する第 2の制御部と、 信号処理されたコンテンツデータを外部に送信する送信部とを備える。 課金処理 装置は、 信号処理部或いはハードゥヱァ制御部が有する複数のメソッドの各々の 利用料金情報を記憶する利用料金記憶部と、 利用料金記憶部に記憶された情報に に基づいて、 指示入力部に対して指示するユーザへの課金量を示す金額情報を演 算すると共に、 当該金額情報を出力する演算部とを備える。
また、 本発明に用いられる通信装置は、 コンテンツデータの通信を行う通信装 置であり、 外部からのアプリケーション層のメソ 'ソ ドの実行を要求する要求信号 を受信する受信部段と、 アプリケーション層に関わるメソ、ソドを選択的に実行し、 入力されるコンテンヅデ一夕に対して信号処理する信号処理部と、 受信される要 求に信号に応じて、 信号処理部が指示されたメソッドを実行するように制御する 制御部と、 信号処理されたコンテンヅデ一夕を外部に送信する送信部とを備える c そして、 本発明は、 コンテンツデ一夕の通信を行う通信方法及びこの通信方法 を実行する通信システムを制御するプログラムであり、 この方法及びプログラム は、 少なくとも上記送信装置のアブリケーション層と上記受信装置のハードゥエ ァ制御層に対して所望のメソッドを指示し、 この指示されたメソ、ソドを要求する 要求信号を送信し、 送信される要求信号に応じて、 メソッドを実行することによ り上記送信装置に入力されるコンテンツデータに対して信号処理手段が信号処理 し、 この信号処理されたコンテンツデータを送信装置から受信装置に送信する。 ここで、 受信装置は、 送信されたコンテンツデータを受信し、 指示されたメソヅ ドに応じて、 ハードウエア制御部により実行されるメソッドが受信装置の内部回 路に対する電力供給を制御し、 信号処理部或いはハードウエア制御部が有する複 数のメソッドの各々の利用料金情報を記憶する利用料金記憶手段に記憶された情 報に基づいて、 指示するユーザへの課金量を示す金額情報を演算すると共に、 当 該金額情報を出力する。
本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1は、 本発明を適用した伝送システムの一構成例を示すプロック図である。 図 2は、 図 1に示す伝送システムを構成する送信装置を示すプロック図であり、 図 3は、 図 2に示す送信装置の処理を説明するためのフローチャートである。 図 4は、 図 1に示す通信システムを構成する受信装置を示すブロック図であり、 図 5は、 図 4に示す受信装置の処理を説明するためのフローチャートである。 図 6は、 図 2に示す送信装置を構成する送信処理部を示すブロック図である。 図 7は、 図 6に示す送信処瑪部の符号化部を示すプロック図である。
図 8 A、 図 8 B及び図 8 Cは、 階層符号化/復号を説明するための図である。 図 9は、 図 6に示す送信処理部による送信処理を説明するためのフローチヤ一 トである。
図 1 0は、 図 4に示す受信装置を構成する受信処理部を示すプロック図である c 図 1 1は、 図 1 0に示す受信処理部を構成する復号部を示すブロック図である c 図 1 2は、 図 4に示す受信装置の合成処理部の構成例を示すプロック図である c 図 1 3は、 図 1 2に示す合成処理部による合成処理を説明するためのフローチ ヤートである。
図 1 4 A、 図 1 4 B及び図 1 4 Cは、 図 4に示す受信装置の画像出力部におけ る画像の表示例を示す図である。
図 1 5 A及び図 1 5 Bは、 図 1に示す伝送システムを構成する送信装置から受 信装置に送信される画像の空間解像度と時間解像度との関係を説明するための図 である。
図 1 6は、 興味の注目点の予測を行う場合の図 6に示す送信処理部を構成する 制御部の主要部の構成例を示すプロック図である。
図 1 7は、 ユーザが注目する傾向を反映する特徴量の具体例の説明に用いる図 である。
図 1 8は、 興味の注目点の予測を行う場合の図 6に示す送信処理部を構成する 制御部の動作を説明するためのフローチャートである。
図 1 9は、 メソヅドが予めィンストールされている処理装置と管理セン夕との 間における課金処理のモデルについて説明するためのプロヅク図である。
図 2 0は、 メソヅ ドを管理センタから取得する場合の課金処理のモデルについ て説明するためのプロヅク図である。
図 2 1は、 課金処理モデルを実際のシステム構成に適用した場合の送信装置、 受信装置の主要部の構成を示すプロック図である。
図 2 2は、 課金処理モデルを実際のシステム構成に適用した場合の図 2 1に示 す送信装置における処理の流れを説明するためフローチャートである。
図 2 3は、 課金処理モデルを実際のシステム構成に適用した場合の図 2 1に示 す受信装置における処理の流れを説明するためフローチヤ一トである。
図 2 4は、 課金処理モデルを実際のシステム構成に適用した場合の図 2 1に示 す管理セン夕における処理の流れを説明するためのフローチャートである。 図 2 5は、 アルゴリズム自動選択のための最適化アルゴリズムによる処理の流 れを説明するためのフローチヤ一トである。
図 2 6 A及び図 2 6 Bは、 画像から抽出されるオブジェクトとその動きの説明 に用いる図である。
図 2 7は、 オブジェクト符号圧縮処理の流れを説明するためのフローチヤ一ト である。
図 2 8 A及び図 2 8 Bは、 時空間モデルで画像を記述することについての説明 に用いる図である。
図 2 9は、 クラス分類適応予測符号における予測符号化回路の係数を決定する ためになされる学習のための構成の一構成例を示すプロック図である。
図 3 0は、 クラス分類適応予測符号における予測符号化回路の一例を示すプロ ヅク図である。
図 3 1は、 クラス分類適応予測符号における予測符号化回路の他の例を示すブ ロック図である。
図 3 2は、 クラス分類適応予測符号におけるクラス分類回路の一例を示すプロ ヅク図である。
図 3 3は、 クラス分類適応予測符号における復号装置の一例を示すブロック図 である。
図 3 4は、 消費電力の自動制御における 1プロセス ( 1クロック) 毎の処理の 概念を説明すために用いる図である。
図 3 5は、 消費電力自動制御アルゴリズムにおいて、 処理手法に応じて電力制 御を実行するか否かを判断する際の流れを説明するためのフローチャートである 図 3 6は、 電力制御機能を実行する場合の処理の流れを説明するためのフロー チャートである。
図 3 7は、 本発明が適用されたコンピュータを示すプロック図である。 発明を実施するための最良の形態 ここで、 本願出願人が既に出願している P C T出願公開番号 W O 0 1 / 1 1 8 8 9 A 1には、 データを受信する受信側でマウスなどでクリヅク指示した領域の 情報量制御として、 特開平 1 0— 1 1 2 8 5 6号公報において開示される空間方 向の解像度制御のみでなく、 時間方向の解像度制御も行う画像処理装置が開示さ れている。
更に、 P C T出願公開番号 W O 0 1 / 1 1 8 8 9 A 1には、 受信側のュ一ザに よりマウスなどでクリックされた位置及びそのクリックの時間間隔より、 ユーザ の興味ある対象であるオブジェクトを抽出するアルゴリズムが開示されている。 更には、 過去にユーザの興味の対象となったオブジェクトの特徴よりユーザの嗜 好を学習し、 自動的に、 ユーザの興味の対象となるオブジェクトを予測し、 その オブジェクト画像を高品質にする技術が鬨示されている。
以下、 本発明を適用した好ましい形態について、 図面を参照しながら説明する 本発明が適用されたデータ通信システムは、 図 1に示すような構成を備える。 ここで、 システムとは、 複数の装置が論理的に集合した物をいい、 各構成の装置 が同一筐体中にあるか否かは問わない。
図 1に示すデータ通信システムは、 例えば携帯電話や P H S (Personal Handy -phone System:登録商標) 等からなる少なくとも 2台の端未 1及び端末 2と、 こ れら端末 1又は端末 2との間で電波による信号の送受信を行う無線基地局 3又は 5と、 これら基地局 3, 5間を結ぶ電話局等の交換局 4とからなる。 なお、 無線 基地局 3, 5は同一又は異なる無線基地局である。 この構成により、 端末 1と端 末 2との間では、 無線基地局 3, 5及び交換局 4等から構成される伝送路を介し て、 双方がそれそれ相手方に信号を送信し、 相手方から送信されてきた信号を受 信可能となされている。
本発明において、 データの提供やデータ受信に応じて行われる課金、 例えば、 図 1の管理セン夕 1 0 3を通じて行われる端末 1や端末 2へのデータ提供や端末 1と端末 2との間でのデータ送受信に応じた課金などの流れ及びそのためのシス テム構成の詳細については後述する。
また、 図 1に示すシステムにおいて、 携帯電話や P H S等からなる端末 1及び 2は、 電話番号や文字、 記号等を入力するためのキー部 8と、 音声を入力するた めのマイクロホン 1 0と、 音声を出力するためのスピーカ 9と、 それそれ静止画 や動画像を撮影可能な撮像素子及び光学系を有するビデオカメラ部 6と、 文字や 記号だけでなく画像をも表示可能な表示部 7とを少なくとも備えている。
これら端末 1と端末 2との間では、 音声信号の送受信だけでなく、 ビデオカメ ラ部 6にて撮影した画像データを送受信することも可能となされている。 したが つて、 端末 1と端末 2は、 それそれ相手方が撮影した画像を表示部 7に表示可能 となる。
ここで、 例えば、 端末 1が画像データを送信する送信装置となり、 当該送信装 置、 すなわち端末 1から送信された画像デ一夕の受信装置が端末 2となっている 場合を一例として説明を行う。 また、 以下、 適宜、 端末 1又は端末 2を、 それそ れ送信装置 1又は受信装置 2と記述する。
この場合、 送信装置 1から送信された画像デ一タは、 フレームレートの情報と 共に、 基地局 3, 5及び交換局 4等から構成される伝送路を介して受信装置 2に 送られる。 受信装置 2では、 送信装置 1から送信されてきた画像データを受信し、 例えば液晶ディスプレイ等で構成される表示部 7に、 その受信されたフレームレ ート情報で受信された画像データに基づく動画像を表示する。 一方、 受信装置 2 からは、 当該表示部 7に表示される画像の空間解像度及び時間解像度を制御する ための制御情報が、 伝送路を介して送信装置 1に送信される。 すなわち、 受信装 置 2からは、 この受信装置 2のユーザの興味対象領域を送信装置 1側において特 定する際に用いられる制御情報 (後述する指示データとしてのクリックデータ) が、 送信装置 1に送信される。
送信装置 1は、 受信装置 2からの制御情報 (以下、 クリックデータとする) を 受信すると、 そのクリックデ一夕に基づいて、 受信装置 2において表示されるこ とになる画像、 例えば、 送信装置 1のビデオカメラ 6で撮影した画像の中から受 信装置 2のユーザが注目する画像領域 (興味対象領域) を特定する。 更に、 送信 装置 1は、 その特定した画像領域の空間解像度及び時間解像度が所定の条件を満 たしながら変更されるように、 受信装置 2に送信する画像データの情報量を制御 する。 なお、 送信装置 1及び受信装置 2として、 例えば P H S用の端末を用いた 場合、 伝送路は 1 8 9 5 . 1 5 0 0〜: L 9 0 5 . 9 5 0 0 M H z帯域の伝送路と なり、 その伝送レートは 1 2 8 k b p s (Bit Per Second)となる。
次に、 図 2に、 図 1に示す通信システムを構成する送信装置 1を示す。 この送 信装置は、 例えば撮像素子 (C C D : Charge Coupled Device等) 及び光学系か らなるビデオカメラ部 6とこのビデオカメラ部 6により得られた撮像信号から画 像デーダを生成する画像信号処理回路等で構成された画像入力部 1 1を備える。 すなわち、 この画像入力部 1 1からは、 送信装置 1のユーザが所望の被写体をビ デォカメラ部 6で撮影し、 さらに画像信号処理回路にて生成された画像データが 出力され、 その画像データが前処理部 1 2に送られる。
詳細な構成については後述するが、 この前処理部 1 2は、 大別して背景抽出部 1 3と、 オブジェクト抽出部 1 4と、 付加情報算出部 1 5とで構成される。 この前処理部 1 2のオブジェクト抽出部 1 4は、 受信装置 2から送信されてき たクリヅクデータに基づいて、 画像入力部 1 1のビデオカメラ部 6が撮影した画 像の中で、 受信装置 2のユーザが注目している画像領域、 すなわち興味対象領域 を抽出し、 その抽出した興味対象領域に対応する画像デ一夕を送信処理部 1 6に 供給する。 なお、 画像入力部 1 1のビデオカメラ部 6が撮影した画像の中に、 受 信装置 2のユーザが注目する興味対象領域が複数存在する場合、 当該オブジェク ト抽出部 1 4は、 それら複数の興味対象領域の画像データを送信処理部 1 6に供 給する。 また、 ォブジヱクト抽出部 1 4で抽出された興味対象領域の画像デ一夕 は、 付加情報算出部 1 5にも供給される。
ここで、 ユーザが注目する興味対象領域として、 画像内の物体等のオブジェク トを例に挙げている。 なお、 本発明においてオブジェクトとは、 画像をある単位 毎に分割し、 その単位毎に処理することができる領域のことであり、 特に、 画像 内に存在する物体に着目し、 その物体毎に処理を行う場合には、 この物体をォブ ジェクトと定義している。 本発明では、 画像からクリヅクデ一夕に基づいてォプ ジェクトデータを抽出し、 当該オブジェクト単位で処理を行うよ""うな例を挙げて いる。 なお、 このオブジェクトの作成の仕方は、 要求される画像の内容によって 異なる。
以下、 オブジェクト抽出部 1 4において、 興味対象領域の一例としてオブジェ クト (以下、 適宜オブジェクト画像と呼ぶ。 ) を抽出する場合を例に挙げて説明 することにする。 なお、 上記興味対象領域は、 必ずしもオブジェクトである必要 はなく、 オブジェクト以外の画像領域やオブジェクト内の画像領域、 後述する背 景画像部分等であっても良いが、 本発明では、 興味対象領域としてオブジェクト を例に挙げて説明する。
オブジェクト画像の抽出方法は、 画像に対するユーザのクリツクデータに対応 する小オブジェク ト画像デ一夕を抽出し、 小オブジェクト画像デ一夕の連結、 非 連結によりオブジェクト画像デ一夕を抽出することにより、 オブジェクト画像を 抽出する方法を本発明の実施例としている。
また、 オブジェクト抽出部 1 4では、 受信装置 2のユーザの興味が変化し、 興 味対象領域が変化したような場合、 その興味の変化を検出し、 当該興味の変化の 検出結果に基づいて新たな興味対象領域であるオブジェクト画像を抽出する。 ォ ブジェクト抽出部 1 4において行われるオブジェクト抽出、 すなわち興味対象領 域の特定処理と興味対象の変化検出の詳細についての説明は後述する。
次に、 前処理部 1 2の背景抽出部 1 3は、 オブジェクト抽出部 1 4によるォブ ジェクト抽出結果に基づいて、 画像入力部 1 1により供給された画像データから 画像の背景部分 (興味対象領域以外の画像領域、 以下、 背景画像と呼ぶ。 ) に相 当する信号 (以下、 背景画像データと呼ぶ。 ) を抽出し、 その抽出した背景画像 データを送信処理部 1 6と付加情報算出部 1 5に供給する。 ここで、 ァクテイ ビ ティが小さく、 画像として特別意味を持たないような平坦な画像領域を背景画像 としている。 もちろん、 背景画像は特別な意味を持たない画像だけでなく、 ユー ザの興味対象となっていないオブジェクト等も含まれるが、 説明を簡単にするた め、 上述のように平坦な画像領域を背景画像として説明する。
付加情報算出部 1 5は、 背景抽出部 1 3から供給された背景画像デ一夕に基づ いて、 画像の撮影時に、 画像入力部 1 1の撮影方向が動くことによる背景の動き、 例えばパン、 チルト画像を表す背景動きベクトルを検出する。 また、 付加情報算 出部 1 5は、 オブジェクト抽出部 1 4から供給されたォブジェクトの画像デ一夕 (以下、 オブジェクト画像データと呼ぶ) に基づいて、 オブジェクトの動きを表 すォブジヱクト動きベクトルを検出する。 そして、 付加情報算出部 1 5は、 それ ら動きベクトルを付加情報として、 送信処理部 1 6に供給する。 また、 付加情報 算出部 1 5は、 オブジェクト抽出部 1 4から供給されたオブジェクト画像データ に基づいて、 画像入力部 1 1のビデオカメラ部 6により撮影された画像、 すなわ ちフレーム画像内におけるオブジェクトの位置や形状を表す輪郭等のようなォブ ジェクトに関連する情報も、 付加情報として送信処理部 1 6に供給する。 すなわ ち、 オブジェクト抽出部 1 4は、 オブジェクト画像を抽出する際に、 そのォブジ ェクトの位置や形状等のオブジェクトに関連する情報も抽出し、 付加情報算出部 1 5に供給する。 付加情報算出部 1 5は、 そのオブジェクトに関連する情報も付 加情報として出力するようになっている。
送信処理部 1 6は、 受信装置 2から供給されたクリックデータに基づいて、 受 信装置 2において表示されることになる画像の内の前記ォブジヱクト画像につい ての空間解像度あるいは時間解像度を高めつつ、 伝送路で伝送可能なデータレー トの条件を満たすように、 オブジェクト抽出部 1 4からのオブジェクト画像デー 夕と、 背景抽出部 1 3からの背景画像デ一夕と、 付加情報算出部 1 5からの付加 情報を符号化する。 更に、 送信処理部 1 6は、 それら符号化後のオブジェクト画 像デ一夕 (以下、 オブジェクト符号化デ一夕と呼ぶ。 ) 、 背景画像デ一夕 (以下、 背景符号化データと呼ぶ。 ) 、 付加情報 (以下、 付加情報符号化データと呼 ぶ。 ) を多重化し、 その多重化デ一夕を、 フレームレート情報と共に伝送路を介 して受信装置 2へ送信する。
次に、 図 3に示すフローチャートを参照して、 図 2に示す送信装置 1.の処理の 概要について説明する。
図 3において、 先ずステップ S 1として、 送信装置 1の画像入力部 1 1では、 ビデオカメラ部 6により画像の撮影がなされ、 その画像デ一夕が前処理部 1 2に 送られる。
次に、 ステップ S 2において、 送信装置 1は、 受信装置 2から送信されてきた クリヅクデ一夕を受信し、 そのクリヅクデ一夕を前処理部 1 2に入力する。
画像データとクリックデ一夕を受け取った前処理部 1 2は、 ステップ S 3にお いて、 背景抽出、 オブジェクト抽出、 付加情報算出の前処理を行い、 当該前処理 にて得られた背景画像データ、 オブジェクト画像デ一タ、 付加情報を送信処理部 1 6に送る。 ここで、 オブジェクト抽出には、 興味対象の変化検出も含む。
送信処理部 1 6では、 ステップ S 4の処理として、 伝送路で伝送可能なデータ レートの条件を満たすように、 オブジェクト画像データと背景画像データ及び付 加情報のデータ量を計算し、 そのデ一夕量に応じて、 それらオブジェクト画像デ 一夕と背景画像データ、 付加情報を、 後述するように符号化して多重化する。 そ の後、 当該多重化デ一夕をフレームレート情報と共に伝送路を介して受信装置 2 へ送信する。 これ以後、 ステップ S Iに戻り、 以下、 同様の処理が繰り返される。
次に、 図 1に示す通信システムを構成する受信装置 2を図 4·に示す。
伝送路を介して、 送信装置 1から送信されてくる多重化データは、 図 4に示す 受信装置 2の受信処理部 2 1で受信される。 受信処理部 2 1は、 受信した多重化 デ一夕から、 それぞれ背景符号化デ一夕、 オブジェクト符号化データ及び付加情 報符号化デ一夕を分離して復号し、 その復号された背景画像データ、 オブジェク ト画像デ一夕及び付加情報を合成処理部 2 2に送る。
合成処理部 2 2は、 受信処理部 2 1から供給された復号後の背景画像デ一夕、 オブジェクト画像データ、 及び付加情報を用いて画像を合成し、 その合成された 画像の信号を画像出力部 2 3に供給する。 また、 合成処理部 2 2は、 クリックデ 一夕入力部 2 4から供給されるクリックデ一夕に基づき、 合成する画像の空間解 像度及び時間解像度を制御するようになされている。
画像出力部 2 3は、 供給された画像データに基づいて、 表示部 7の例えば液晶 ディスプレイ等を駆動するための駆動信号を生成して当該液晶ディスプレイ等に、 上述の多重化データと共に受信されたフレームレート情報に基づくフレームレ一 トで送ることにより、 合成処理部 2 2にて合成された画像を表示部 7に表示させ る。
クリックデ一夕入力部 2 4は、 表示部 7上の画像の座標位置を指定するための ポィンティングデバイスとしての機能を有するキー部 8をユーザが操作した時に、 そのユーザによるキー部 8の操作に応じたクリック位置、 すなわち座標位置及び クリック時刻を表すクリックデ一夕を発生する。 すなわち、 表示部 7に表示され ている画像のうちの所望の画像部分である興味対象領域を、 ユーザがキー部 8を クリック操作することにより指定すると、 クリックデ一夕入力部 2 4は、 そのク リック位置の座標情報及びそのクリヅク時刻を表すクリックデ一夕を発生する。 クリヅクデ一夕入力部 2 4により発生されたクリヅクデ一夕は、 合成処理部 2 2 とクリックデ一夕送信部 2 5に送られる。
クリックデ一夕送信部 2 5は、 クリックデータ入力部 2 4からクリックデータ を受け取ると、 そのクリヅクデ一夕を伝送路を介して送信装置 1に送信する。 次に、 図 5のフローチャートを参照して、 図 4に示す受信装置 2の処理の概要 について説明する。
図 5において、 受信装置 2の受信処理部 2 1では、 先ず、 ステヅプ S 1 1とし て、 送信装置 1から伝送路を介して送信されてくる多重化デ一夕を受信する。 次に、 受信処理部 2 1では、 ステヅプ S 1 2において、 その多重化データから、 背景符号化データとオブジェクト符号化データ及び付加情報符号化デ一夕を分離 し、 さらにそれら分離した符号化デ一夕を復号する。 復号された背景画像データ とオブジェクト画像デ一夕及び付加情報は、 合成処理部 2 2に送られる。
受信装置 2のクリックデータ入力部 2 4では、 ステップ S 1 3において、 ユー ザによるキー部 8のクリック操作に基づくクリックデ一夕を取得して合成処理部 2 2に送ると共に、 そのクリヅクデータをクリックデ一夕送信部 2 5に送り、 当 該クリックデー夕送信部 2 5から送信装置 1に送信する。
次に、 合成処理部 2 2では、 ステップ S 1 4において、 受信処理部 2 1から供 給された背景画像データとオブジェクト画像データ及び付加情報と、 クリックデ 一夕入力部 2 4から供給されたクリヅクデータとに基づいて、 画像を合成すると 共に、 その合成される画像の空間解像度及び時間解像度を制御する。
その後、 画像出力部 2 3は、 ステップ S 1 5において、 合成処理部 2 2にて合 成された画像を、 多重化データと共に受信されたフレームレート情報に基づいて 表示部 7の液晶ディスプレイ等に表示させる。
これ以後、 ステヅプ S 1 1に戻り、 以下、 同様の処理が繰り返される。
次に、 図 2に示す送信装置 1を構成する送信処理部 1 6の具体的な例を図 6に 示す。
図 6に示す送信処理部 1 6には、 図 2に示した前処理部 1 2からの背景画像デ 一夕、 オブジェクト画像デ一夕及び付加情報が供給される。 これら背景画像デー 夕、 オブジェクト画像データ及び付加情報は、 符号化部 3 1と制御部 3 5に入力 される。
符号化部 3 1は、 供給された背景画像データ、 オブジェクト画像デ一夕及び付 加情報を後述するように階層符号化し、 その結果得られる各符号化デ一夕を M U X (マルチプレクサ) 3 2に供給する。
M U X 3 2は、 制御部 3 5による制御の元で、 符号化部 3 1から供給された背 景符号化データ、 オブジェクト符号化データ、 付加情報符号化データを選択し、 多重化データとして送信部 3 3に供給する。
送信部 3 3は、 M U X 3 2からの多重化デ一夕を上述のフレームレート情報と 共に後段の伝送路の伝送規格に応じて変調等し、 その伝送路を介して受信装置 2 に送信する。
また、 データ量計算部 3 4は、 M U X 3 2が送信部 3 3に出力する多重化デ一 夕を監視しており、 そのデータレートを算出し、 制御部 3 5に供給する。
制御部 3 5は、 データ量計算部 3 4にて算出されたデータレートが、 伝送路の 伝送レートを越えないように、 M U X 3 2による多重化デ一夕の出力を制御する と共に、 伝送路を介して受信装置 2から送信されて受信されたクリックデ一夕を 受け取り、 そのクリヅクデ一夕に基づいて、 M U X 3 2における符号化デ一夕の 多重化を制御する。
次に、 図 6に示す符号化部 3 1の具体的構成例を図 7に示す。
図 7に示す符号化部 3 1において、 背景画像デ一夕は、 差分計算部 4 1 Bに入 力される。 差分計算部 4 1 Bは、 ローカルデコーダ 4 4 Bから供給される、 現時 点で処理しょうとしている画像フレーム (以下、 適宜、 現フレームと呼ぶ。 ) に 含まれる背景画像デ一夕から、 既に処理した 1 フレーム前の背景画像データを減 算し、 その減算結果としての背景画像の差分デ一夕 (以下、 背景画像差分デ一夕 と呼ぶ。 ) を階層符号化部 4 2 Bに供給する。
階層符号化部 4 2 Bは、 差分計算部 4 1 Bからの背景画像差分データを後述す るように階層符号化し、 その符号化により得られたデ一夕、 すなわち背景符号化 データを記憶部 4 3 Bに供給する。
記憶部 4 3 Bは、 階層符号化部 4 2からの背景符号化デ一夕を一時記憶する。 記憶部 4 3 Bに記憶された背景符号化データは、 背景符号化データとして図 6に 示した M U X 3 2に送られる。
さらに、 記憶部 4 3 Bに記憶された背景符号化データは、 ローカルデコーダ 4 4 Bに供給される。 ローカルデコーダ 4 4 Bでは、 その背景符号化データを局所 復号して、 元の背景画像データを復号し、 その復号後の背景画像データを差分計 算部 4 1 Bに供給する。 このように、 ローカルデコーダ 4 4 Bによって復号され た背景画像デ一夕は、 差分計算部 4 1 Bにおいて次のフレームの背景画像デ一夕 との差分データを求めるのに用いられる。
また、 図 7に示す符号化部 3 1において、 オブジェクト画像デ一夕は、 差分計 算部 4 1 Fに供給される。 差分計算部 4 1 Fは、 ローカルデコーダ 4 4 Fから供 給される、 現時点で処理しょうとしている画像フレーム (現フレーム) に含まれ るォブジェクト画像データから、 既に処理した 1 フレーム前のオブジェクト画像 データを減算し、 その減算結果としてのオブジェク トの差分データ (以下、 ォブ ジェクト画像差分データと呼ぶ。 ) を、 階層符号化部 4 2 Fに供給する。
階層符号化部 4 2 Fは、 差分計算部 4 1 Fからのオブジェクト画像差分デ一夕 を後述するように階層符号化し、 その符号化により得られたデータ (オブジェク ト符号化データ) を、 記憶部 4 3 Fに供給する。
記憶部 4 3 Fは、 階層符号化部 4 2からのオブジェクト符号化デ一夕を一時記 憶する。 記憶部 4 3 Fに記憶されたオブジェクト符号化デ一夕は、 図 6に示した M U X 3 2に送られる。
さらに、 記憶部 4 3 Fに記憶されたオブジェクト符号化デ一夕は、 ローカルデ コーダ 4 4 Fに供給される。 当該ローカルデコーダ 4 4 Fでは、 そのオブジェク ト符号化データを局所復号して、 元のオブジェクト画像データを復号し、 その,復 号後のオブジェクト画像デ一夕を差分計算部 4 1 Fに供給する。 このように、 口 一カルデコーダ 4 4 Fによって復号されたオブジェクト画像データは、 差分計算 部 4 1 Fにおいて、 次のフレームのオブジェクト画像データとの差分データを求 めるのに用いられる。
なお、 オブジェク卜が複数 (オブジェクト # 1, # 2, # 3 , ···) 存在する場 合は、 それら複数のオブジェクトの画像データそれそれに対して、 差分計算部 4 1 F、 階層符号化部 4 2 F、 記憶部 4 3 F及びローカルデコーダ 4 4 Fにおいて 上述したような差分計算、 階層符号化、 記憶、 ローカルデコードの処理を行う。 また、 図 7に示す符号化部 3 1において、 付加情報は、 V L C (可変長符号 化) 部 4 5に供給される。 0部4 5では、 付加情報を可変長符号化する。 こ こで、 可変長符号化の手法としては冗長度を削減することによりデータを圧縮す る手法であれば良く、 ランレングス符号化、 ハフマン符号化などを用いることが できる。 この可変長符号化された付加情報は、 前記付加情報符号化データとして 図 6に示した M U X 3 2に送られる。
次に、 図 8を参照して、 図 7の符号化部 3 1において行われる階層符号化と、 受信側において階層符号化に対応して行われる復号について説明する。
ここで、 図 7の符号化部 3 1は、 階層符号化として、 例えば下位側の階層にお ける水平方向 2画素及び垂直方向 2画素からなる 4つの画素の平均値 (画素値の 平均) を、 当該下位階層よりも一つ上の上位階層における 1画素の画素値とする ような処理が、 例えば 3階層分にわたって行われる。 なお、 ここで説明する画素 値とは、 階層符号化の前段の処理として行われる前記差分計算により得られた差 分値、 すなわち画素毎の差分値である。 もちろん、 階層符号化の前段で差分計算 を行わない場合は、 通常の画素値となる。
この場合、 最下位階層 (第 1階層) の画像として、 例えば図 8 Aに示すように 水平方向 4画素及び垂直方向 4画素からなる画像 (以下、 4 X 4画素と呼ぶ。 ) を考えると、 階層符号化では、 当該 4 X 4画素のうち左上側の水平方向 2画素及 び垂直方向 2画素 (以下、 2 X 2画素と呼ぶ。 ) を構成する 4つの画素 h 0 0, h 0 1 , h 0 2 , h 0 3の平均値が演算され、 この平均値が第 2階層の左上の 1 画素 m 0の画素値とされる。 同様に、 第 1階層の 4 X 4画素のうち右上側の 2 X 2画素 h 1 0 , h 1 1 , h 1 2 , h 1 3の平均値は、 第 2階層の右上の 1画素 m 1の画素値となされ、 第 1階層の 4 X 4画素のうち左下側の 2 X 2画素 h 2 0, h 2 1 , h 2 2 , h 2 3の平均値は、 第 2階層の左下の 1画素 m 2の画素値とな され、 第 1階層の 4 X 4画素のうち右下側の 2 X 2画素 h 3 0 , h 3 1 , h 3 2 5 h 3 3の平均値は第 2階層の右下の 1画素 m 3の画素値となされる。 階層符号化 では、 さらに、 第 2階層の 2 X 2画素を構成する 4つの画素 m O, m l, m 2 , m 3の平均値を求め、 この平均値が第 3階層 (最上位階層) の 1つの画素 qの画 素値となされる。
図 7の符号化部 3 1では、 以上のような階層符号化を行う。 なお、 このような 階層符号化によれば、 最上位階層 (第 3階層) の画像の空間解像度は最も低くな り、 階層が低くなるにつれて画像の空間解像度が向上し、 最下位階層 (第 1階 層) の画像の空間解像度は最も高くなる。 ところで、 以上の画素 h 00乃至 h 0 3、 h 1 0乃至 h 1 3、 h 20乃至 h 2 3、 h30乃至 h 33、 1110乃至1113、 qを全部送信するようにした場合は、 最 下位階層の画像だけを送信する場合に比較して、 より上位側の階層である第 2階 層の画素 m0乃至 m3と第 3階層の画素 qの分だけ、 デ一夕量が増加することと なる。
そこで、 送信するデ一夕量を減らしたい場合には、 例えば図 8 Bに示すように、 第 2階層の画素 m 0乃至 m 3のうちの例えば右下の画素 m 3に替えて第 3階層の 画素 qを埋め込み、 それら画素 mO, m l , m2と qからなる第 2階層のデ一夕 と、 第 1階層のデ一夕とを送信するようにする。 これによれば、 第 3階層分のデ 一夕量を減らすことができる。
また、 図 8 Bの場合よりも更にデ一夕量を減らしたいときには、 図 8 Cに示す ように、 第 2の階層の画素 mOを、 それを求めるのに用いた第 1階層の 2 X 2画 素 h 00乃至 h 03のうちの例えば右下の画素! 103に替え、 同様に、 第 2の階 層の画素 m 1を、 それを求めるのに用いた第 1階層の 2 X 2画素 h 1 0乃至 h 1 3のうちの例えば右下の画素 h 1 3に替え、 また、 第 2の階層の画素 m 2を、 そ れを求めるのに用いた第 1階層の 2 X 2画素 h 2 0乃至 h 23のうちの例えば右 下の画素 h2 3に替え、 さらに、 図 8 Bのようにして第 2階層の画素 mO乃至 m 3の右下の画素に埋め込まれた第 3階層の画素 qを、 第 1階層の 2 X 2画素 h 3 0乃至 h 33のうちの例えば右下の画素 h 33に替えて送信するようにする。 こ れによれば、 第 3階層と第 2階層分のデータ量を減らすことができる。 すなわち、 図 8 Cに示す例では、 送信する全画素数は 4 X 4画素の 1 6画素分となり、 図 8 Aに示した最下位階層 (第 1階層) の画素数と変わらない。 したがって、 この場 合、 第 1階層から第 3階層までの各階層に相当する画素デ一夕を送信可能となる だけでなく、 送信するデータ量の増加を最も抑えることが可能となる。
なお、 図 8 Bにおいて画素 qと替えられた第 2階層の画素 m3と、 図 8 Cにお いて画素 mO, m 1 , m2及び qとそれそれ替えられた第 1階層の画素 h 03 , h 1 3 , h 23 , h33は、 以下のようにして復号することができる。
すなわち、 画素 qの値は、 画素 mO乃至 πι3の各画素値の平均値であるから、 q = (m 0 +m 1 +m 2 +m3 ) / 4の式が成り立つ。 したがって、 m3 = 4 x q - (m 0 +m 1 +m 2 ) の式により、 第 3層の画素 q及び第 2階層の画素 m 0 乃至 m2を用いて、 第 2層の画素 m3を求める (復号する) ことができる。
また、 画素 m0の値は、 画素 hO 0乃至 hO 3の平均値であるから、 m0 = (hO 0 +h0 1 +h02 +h03) / 4の式が成り立つ。 したがって、 hO 3 = 4 xm 0 - (h00 +h0 1 + h02) の式により、 第 2階層の画素 mO及び 第 1階層の画素 h 00乃至 h 02を用いて、 第 1階層の画素 h 03を求めること ができる。 同様にして、 各画素 h 13 , h 23 , h33も求めることができる。 以上のように、 ある階層において送信されない画素は、 その階層において送信 される画素と、 その 1つ上位の階層において送信される画素とから復号すること ができる。
次に、 図 9に示すフローチャートを参照して、 図 6に示す送信処理部 1 6にお いて行われる送信処理について説明する。
最初に、 送信処理部 1 6の制御部 35は、 ステップ S 2 1において、 受信装置 2からクリヅクデ一夕が送信されてきたか否かを判定する。 ステヅプ S 2 1にお いて、 受信装置 2からクリックデ一夕が送信されてきていないと判定された場合、 すなわち制御部 35がクリヅクデ一夕を受け取つていない場合、 制御部 35は、 ステップ S 22として、 MUX 32を制御し、 受信装置 2において通常の時間解 像度、 例えばデフォルト設定されている時間解像度で画像の表示が可能なように、 背景、 オブジェクト、 及び付加情報の各符号化デ一夕を選択させて多重化させる c すなわち、 通常の時間解像度として例えば 30フレーム/秒が設定されている 場合、 受信装置 2では 30フレーム/秒で画像を表示することになり、 このとき の MUX 32は、 当該 30フレーム/秒の時間解像度を維持しつつ、 多重化デー 夕を伝送路の伝送レートで送信したときに、 受信装置 2側において表示される画 像の空間解像度が最も高くなるように、 背景、 オブジェクト、 及び付加情報の各 符号化デ一夕を選択して多重化する。
より具体的に説明すると、 例えば上述のように 3階層の階層符号化が行われて いる場合において、 30フレーム/秒で画像を表示するのに、 伝送路の伝送レー トでは第 3階層のデ一夕しか送信することができないとき、 当該 MPX 32は、 この第 3階層の画像を表示するための背景、 ォブジヱクト及び付加情報の各符号 化データを選択する。 この場合の受信装置 2では、 3 0フレーム/秒の時間解像 度で且つ、 水平方向及び垂直方向の空間解像度が何れも元の画像である第 1階層 の画像の 1 / 4となった画像が表示されることになる。
次に、 当該送信処理部 1 6では、 ステップ S 2 3において、 M U X 3 2からの 多重化データを、 上述の設定されているフレームレート情報と共に送信部 3 3か ら伝送路を介して送信し、 その後、 ステヅプ S 2 1に戻る。 - また、 ステヅプ S 2 1において、 制御部 3 5が受信装置 2からクリックデータ が送信されてきたと判定した場合、 すなわち制御部 3 5がクリックデータを受け 取った場合、 制御部 3 5は、 ステップ S 2 4として、 そのクリックデータに基づ いて、 ユーザが受信装置 2のクリヅクデ一夕入力部 2 4を操作することにより指 定した注目点の座標であるクリック位置及びクリック時刻を認識する。
次に、 詳細については後述するが、 制御部 3 5は、 ステヅプ S 2 5の処理とし て、 注目点の座標、 すなわちクリ ヅク位置及びクリック時刻に基づいて、 受信装 置 2側のユーザが注目している興味対象領域を特定し、 その特定した興味対象領 域を、 受信装置 2側で表示される画像のうちで空間解像度を優先的に向上させる 優先範囲として設定し、 その優先範囲内の画像とそれに対応する付加情報を検出 する。 なお、 半発明において、 優先範囲内の画像は、 オブジェクト画像に対応し、 優先範囲外の画像は、 例えば背景画像のような興味対象領域以外の画像に対応す る。
制御部 3 5は、 ステヅプ S 2 6として、 M U X 3 2を制御し、 受信装置 2にお いて、 上記優先範囲内の画像が、 より高い空間解像度で表示されるように、 その 優先範囲内領域の画像 (オブジェクト画像) と当該優先範囲外の画像 (背景画 像) 及び付加情報の符号化データを選択させ、 多重化させる。 すなわち、 制御部 3 5は、 受信装置 2からのクリックデータを受信した場合、 時間解像度を犠牲に して、 優先範囲内の画像の空間解像度を向上させるように、 M U X 3 2を制御す る。
上述の説明では、 制御部 3 5は、 優先範囲内の画像の空間解像度を向上するよ うに制御したが、 優先範囲内の画像の時間解像度を向上する、 すなわち、 優先範 囲内の画像のフレームレートが向上するように制御してもよい。 このとき、 制御 部 3 5は、 空間解像度を犠牲にするようにしてもよいが、 優先範囲外である背景 画像データに対応する画像を静止画像とすることにより全体の情報量制御を行う ようにしてもよい。
これにより、 M U X 3 2は、 例えば、 優先範囲内の画像については、 第 3階層 の他、 第 2階層の画像を表示するための符号化デ一夕を優先的に選択して多重化 し、 その多重化デ一夕を出力する。
さらに、 制御部 3 5は、 ステヅプ S 2 6として、 多重化デ一夕として選択する 付加情報に、 優先範囲の位置と大きさ等の情報 (以下、 適宜、 高解像度情報とい う。 ) を挿入するように、 M U X 3 2を制御し、 ステヅプ S 2 3に進む。
ステヅプ S 2 3に進むと、 送信部 3 3では、 M U X 3 2が出力する多重化デー 夕を、 フレームレート情報と共に伝送路を介して送信した後、 ステップ S 2 1に 戻る。
ここで、 説明を簡単にするために、 ステップ S 2 6において、 優先範囲外の画 像、 例えば背景画像については、 第 3階層の画像を表示するための符号化デ一夕 を、 ステップ S 2 2における場合と同様に選択し続けるとすると、 制御部 3 5で は、 ステップ S 2 6の場合の多重化デ一夕のデータ量は、 ステヅプ S 2 2の場合 に比較して、 空間解像度を高めた優先範囲内の画像、 オブジェクト画像について の第 2階層のデ一夕の分だけデータ量が増加することになる。
このとき、 例えば 3 0フレーム/秒で画像を表示することを考えた場合、 前述 したように、 伝送路の伝送レートでは、 第 3階層のデータしか送信することがで きないから、 ステップ S 2 6で得られた第 2階層のデータを含む多重化データは、 画像を 3 0 フレームノ秒で表示可能なデータにはならない。
このような場合、 送信部 3 3から例えば 3 0フレーム/秒より低いレート、 最 も極端な例では、 0フレーム/秒、 すなわち静止画像となる多重化データを送信 する。 これにより、 受信装置 2では、 上記優先範囲内の画像について、 水平方向 及び垂直方向の空間解像度がいずれも、 元の画像 (第 1階層の画像) の 1 / 2と なった画像、 すなわち、 水平方向及び垂直方向の空間解像度がいずれも、 いまま で表示されていた第 3階層の画像の 2倍になった画像 (第 2階層の画像) が表示 されることになる。 但し、 このとき受信装置 2に表示される画像の時間解像度は 3 0フレームノ秒未満となる。
以上のようにして、 優先範囲内の画像について第 2階層のデータが送信された 後、 ステヅプ S 2 1において、 前回に続いて受信装置 2からクリックデ一夕が送 信されてきたと判定された場合、 すなわち、 ユーザがクリックデ一夕入力部 2 4 を操作し続け、 以前と同一の或いはその近傍の注目点を指定し続けている場合は、 ステップ S 2 4において前回と同一或いはその近傍の注目点が認識され、 ステヅ プ S 2 5において前回と同一の優先範囲が設定され、 ステヅプ S 2 6に進む。 こ れにより、 制御部 3 5は、 ステップ S 2 6において M U X 3 2を制御し、 受信装 置 2にて優先範囲内の画像がより高い空間解像度で表示されるように、 符号化デ 一夕を選択させ、 多重化させる。
この場合の優先範囲内の画像については、 既に、 第 3階層の他、 第 2階層の画 像及びそれらの付加情報の符号化デ一夕が優先的に選択されるようにな ている ので、 ここでは更に第 1階層の画像及び付加情報の符号化データも優先的に選択 され、 多重化デ一夕として出力される。 また、 ステップ S 2 6において上述した ように高解像度情報が付加情報に挿入され、 ステップ S 2 3において M U X 3 2 からの多重化データが、 フレームレート情報と共に送信部 3 3から伝送路を介し て送信された後、 ステップ S 2 1に戻る。
この場合、 受信装置 2では、 優先範囲内の画像が元の画像 (第 1階層の画像) と同一の空間解像度の画像、 すなわち水平方向及び垂直方向の空間解像度が、 何 れも最初に表示されていた第 3階層の画像の 4倍になった画像 (第 1階層の画 像) が表示されることになる。 但し、 その時間解像度は上記 3 0フレ一ムノ秒よ りも低い画像、 0フレーム Z秒となった場合は静止画となされる。
以上から、 受信装置 2のユーザがクリヅクデータ入力部 2 4を操作し続けて、 例えば同一の注目点、 すなわち興味対象領域を指定し続けると、 注目点を含む優 先範囲内の画像、 すなわち興味対象領域、 例えばオブジェクト画像について、 空 間解像度をより向上させるためのデ一夕が優先的に送信されるので、 当該注目点 を含む優先範囲内の画像の空間解像度は徐々に向上し、 その結果、 優先範囲内の 画像は、 より鮮明に表示されるようになる。 すなわち、 受信装置 2側においてュ 一ザが注目している部分の画像である興味対象領域、 例えばオブジェクト画像は、 より鮮明に表示される。
以上のように、 クリックデータに基づく注目点によって特定された優先範囲内 の画像である興味対象領域、 例えばオブジェクト画像の空間解像度あるいは時間 解像度が、 伝送路の伝送レートに応じた解像度の範囲内で変更されるように、 画 像デ一夕の送信が制御されるので、 限られた伝送レート内において、 受信装置 2 に表示される注目点に対応する画像の空間解像度を、 より向上させることができ る。 すなわち、 画像の時間解像度を犠牲にして、 優先範囲内のオブジェクト画像 の空間解像度を向上させることで、 限られた伝送レート内で受信装置 2に表示さ れる当該オブジェクト画像をより鮮明に表示させる、 すなわち、 空間解像度をよ り向上させることが可能となる。
次に、 図 4に示す受信装置 2を構成する受信処理部 2 1の具体的な構成を図 1 0を参照して説明する。
この図 1 0において、 伝送路を介して供給された多重化データは、 受信部 5 1 にて受信され、 復調等された後、 D M U X (デマルチプレクサ) 5 2に供給され る。
D M U X 5 2は、 受信部 5 1から供給された多重化データを、 背景符号化デ一 夕、 オブジェクト符号化データ及び付加情報符号化デ一夕に分離し、 復号部 5 3 に供給する。
復号部 5 3は、 背景、 オブジェクト、 又は付加情報の各符号化データ (本実施 の形態では前記差分値を符号化したデータ) を、 前記符号化時とは逆の処理によ りそれそれ元のデータに復号し、 図 4に示した合成処理部 2 2に出力する。 ここで、 図 1 1に図 1 0に示す復号部 5 3の具体的な構成例を示す。
図 1 1において、 背景符号化デ一夕である階層符号化されている背景画像差分 データは、 加算器 6 1 Bに供給される。 加算器 6 1 Bには、 さらに記憶部 6 2 B に記憶された、 既に復号されている 1フレーム前の背景画像データも供給される ようになつている。 加算器 6 1 Bは、 入力された背景画像差分データに、 記憶部 6 2 Bからの 1 フレーム前の背景画像データを加算することで、 現フレームで必 要な階層の背景画像デ一夕を復号する。 この復号された背景画像データは、 記憶 部 6 2 Bに供給されて記憶された後に読み出され、 加算器 6 1 Bに供給されると ともに図 4に示す合成処理部 2 2に送られる。
オブジェクト符号化データである階層符号化されたオブジェクト画像差分デー 夕は、 加算器 6 1 Fに供給される。 加算器 6 1 Fには、 さらに記億部 6 2 Fに記 憶された、 既に復号されている 1フレーム前のオブジェクト画像データも供給さ れる。 加算器 6 1 Fは、 上記入力されたオブジェクト画像差分データに、 記憶部
6 2 Fからの 1フレーム前のォブジェクト画像デ一夕を加算することで、 現フレ ームで必要な階層のオブジェクト画像データを復号する。 この復号されたォブジ ェクト画像データは、 記憶部 6 2 Fに供給されて記憶された後に読み出され、 加 算器 6 1 Fに供給されるとともに、 図 4に示す合成処理部 2 2に送られる。 なお、 ォブジヱクトが複数存在する場合は、 加算器 6 1 F及び記憶部 6 では、 複数 のオブジェク 卜の差分データそれぞれに対して上述したように階層復号がなされ る。
付加情報符号化データである、 前記可変長符号化された付加情報は、 逆 V L C 部 6 3に入力し、 ここで可変長復号される。 これにより、 元の付加情報に復号さ れ、 合成処理部 2 2に供給される。
なお、 前述した図 7に示すローカルデコーダ 4 4 Bは、 加算器 6 1 B及び記憶 部 6 2 Bと同様に構成され、 また、 図 7のローカルデコーダ 4 4 Fは、 加算器 6 1 F及び記憶部 6 2 Fと同様に構成されている。
次に、 図 4に示す受信装置 2を構成する合成処理部 2 2の具体的な構成を図 1 2に示す。
この図 1 2において、 図 1 0に示した復号部 5 3から出力された背景画像デ一 夕は背景書き込み部 7 1に入力し、 オブジェクト画像データはオブジェクト書き 込み部 7 2に入力し、 付加情報は背景書き込み部 7 1とオブジェクト書き込み部
7 2及び合成部 7 7に入力する。
背景書き込み部 7 1は、 供給された背景画像データを、 背景メモリ 7 3に順次 書き込む。 ここで例えば、 前記送信装置 1のビデオカメラ部 6での撮影時に、 パ ンニングゃチルティングされて撮影が行われることによって背景に動きがあるよ うな場合、 背景書き込み部 7 1は、 付加情報に含まれる背景動きベクトルに基づ いて背景の位置合わせを行った状態で、 背景メモリ 7 3への背景画像データの書 き込みを行うようになされている。 したがって、 背景メモリ 7 3は、 1フレーム 分の画像よりも空間的に広い画像のデ一夕を記憶することができるようになされ ている。
オブジェクト書き込み部 7 2は、 供給されたオブジェクト画像データを、 ォブ ジェクトメモリ 7 5に、 順次書き込む。 なお、 例えばオブジェクトが複数存在す る場合、 オブジェクト書き込み部 7 2は、 複数のオブジェクトの画像デ一夕それ それを、 各オブジェクト毎にオブジェクトメモリ 7 5に書き込む。 また、 ォブジ ェクト書き込み部 7 2は、 同一のオブジェクトである後述する同一のオブジェク ト番号が付されているォブジヱクトの画像データの書き込みを行う場合、 既にォ ブジェクトメモリ 7 5に書き込まれているオブジェクト画像データに代えて、 新 しいオブジェクト画像デ一タ、 すなわち、 新たに、 オブジェクト書き込み部 7 2 に供給されるォブジェクト画像データを書き込むようになつている。
さらに、 オブジェクト書き込み部 7 2は、 空間解像度の高いオブジェクトを、 オブジェクトメモリ 7 5に書き込んだ場合、 そのオブジェクトを構成する各画素 に対応してォブジェクトフラグメモリ 7 6のァドレスに記憶されるオブジェクト フラグを" 0 " から" 1 " にするようになっている。 すなわち、 オブジェクト書 き込み部 7 2は、 オブジェクトメモリ 7 5にォブジェクト画像デ一夕を書き込む 際に、 オブジェクトフラグメモリ 7 6を参照するようになつており、 オブジェク トフラグが" 1 " になっているオブジェクト、 つまり既に空間解像度の高いォブ ジェクトの画像データが記憶されているオブジェクトメモリ 7 5には、 空間解像 度の低いォブジェクト画像データの書き込みは行わないようになつている。 した がって、 オブジェクトメモリ 7 5は、 基本的に、 オブジェクト書き込み部 7 2に オブジェクト画像データが供給されるたびに、 そのオブジェクト画像データが書 き込まれるが、 既に空間解像度の高いォブジェクト画像データが記憶されている オブジェクトメモリ 7 5には、 空間解像度の低いオブジェクト画像データの書き 込みを行わない。 その結果、 オブジェクトメモリ 7 5においては、 オブジェクト 書き込み部 7 2に空間解像度の高いォブジヱクト画像データが供給される毎に、 空間解像度の高いォブジヱクト画像の数が増加していくことになる。
合成部 7 7は、 背景メモリ 7 3に記憶された背景画像データから、 現時点で表 示を行うべきフレームである現フレームの背景画像を、 付加情報に含まれる背景 動きべクトルに基づいて読み出すとともに、 その背景画像上 Γ ブジェクトメ モリ 7 5に記憶されたオブジェクト画像を、 付加情報に含まれるオブジェクト動 きベクトルに基づいて合成し、 これにより、 現フレームの画像を構成して、 表示 メモリ 7 8に供給するようになっている。
さらに、 合成部 7 7は、 図 4のクリックデ一夕入力部 2 4から、 クリ ヅクデー 夕を受信した場合、 そのクリツクデ一夕に含まれる注目点の座標位置を含むォブ ジェクト画像デ一夕を、 オブジェクトメモリ 7 5から読み出し、 サブウインドウ メモリ 7 9に供給するようになっている。
表示メモリ Ί 8は、 いわゆる V R A M (Video Read Only Memory)として機能す るメモリであり、 合成部 7 7からの現フレームの画像を一時記憶した後に読み出 して図 4の画像出力部 2 3に供給する。 また、 サブウィンドウメモリ 7 9は、 合 成部 7 7からのォブジェクト画像デ一夕を一時記憶した後読み出し、 図 4に示す 画像出力部 2 3に供給する。 このとき、 当該画像出力部 2 3により駆動される表 示部 7上には、 現フレームの画像と共に後述するサブウィンドウが表示され、 ォ ブジェクト画像は当該サブウインドウ上に表示される。
次に、 図 1 3のフローチャートを参照して、 図 1 2に示す合成処理部 2 2で行 われる合成処理について説明する。
先ず最初に、 オブジェクト書き込み部 7 2は、 ステヅプ S 3 1において、 図 1 0の復号部 5 3から供給されたオブジェクト画像データを、 オブジェクトフラグ メモリ 7 5に記憶されたォブジェクトフラグに基づいて、 上述したようにして書 き込む。
すなわち、 オブジェクト書き込み部 7 2は、 オブジェクトフラグメモリ 7 6に 記憶されているオブジェクトフラグを参照し、 当該オブジェクトフラグが" 0 " になっている画素に対応するォブジェクトメモリ 7 5のアドレスには、 そこに供 給されるオブジェクト画像データを書き込み、 ォブジヱクトフラグが" 1 " にな つている画素に対応するォブジェクトメモリ 7 5のァドレスには、 そこに供給さ れるオブジェクト画像デ一夕が、 空間解像度の高いものである場合にのみ、 その 空間解像度の高いオブジェクト画像デ一夕を書き込む。 なお、 オブジェクトメモリ 7 5の既にオブジェクト画像データが記憶されてい るアドレスに、 オブジェクト画像デ一夕を書き込む場合には、 その書き込みは、 上書きする形で行われる。
その後、 ステヅプ S 3 2に進み、 オブジェクト書き込み部 7 2では、 付加情報 に、 高解像度情報が含まれているかどうかが判定される。 ステヅプ S 3 2におい て、 付加情報に、 高解像度情報が含まれていると判定された場合、 すなわち受信 装置 2のユーザが図 4のクリツクデ一夕入力部 2 4を操作することにより、 送信 装置 1にクリックデ一夕が送信され、 これにより、 前述したようにして送信装置 1から、 優先範囲内の画像について空間解像度の高いオブジェクト画像のデ一夕 が送信されてきた場合、 ステップ 3 3に進み、 オブジェクト書き込み部 7 2にお いて、 オブジェクトフラグメモリ 7 6の所定のオブジェクトフラグが" 1 " にさ れる。
すなわち、 送信装置 1から、 優先範囲内の画像について空間解像度の高いォブ ジヱクト画像のデ一夕が送信されてきた場合には、 ステップ S 3 1において、 ォ ブジェクトメモリ 7 5に、 その空間解像度の高いオブジェクト画像デ一夕が書き 込まれる。 このため、 ステヅプ S 3 3では、 その空間解像度の高いオブジェクト 画像を構成する画素についてのオブジェクトフラグが" 1 " とされる。
その後、 ステップ S 3 4に進み、 合成部 7 7は、 優先範囲内にあるオブジェク ト画像データを、 オブジェクトメモリ 7 5から読み出し、 サブウィンドウメモリ 7 9に書き込む。
すなわち、 ステップ S 3 2において、 付加情報に高解像度情報が含まれている と判定される場合というのは、 上述したようにユーザがクリックデータ入力部 2 4を操作することにより、 送信装置 1にクリックデータが送信され、 これにより、 上述したようにして送信装置 1から優先範囲内の画像について空間解像度の高い オブジェクト画像のデータが送信されてきた場合である。 また、 送信装置 1に送 信されるクリックデータは、 合成部 7 7にも供給される。 そこで、 合成部 7 7は、 クリックデータを受信すると、 ステップ S 3 4において、 そのクリヅクデ一夕に 含まれる注目点の座標及びクリック時刻から、 優先範囲を認識し、 送信装置 1か ら送信されてくる優先範囲内にある空間解像度の高いオブジェクトを、 オブジェ クトメモリ 7 5から読み出し、 サブウインドウメモリ 7 9に書き込む。
そして、 ステップ S 3 5に進み、 合成部 7 7は、 背景メモリ 7 3に記憶された 背景画像データの中から、 現フレームの背景画像データを、 付加情報に含まれる 背景動きべクトルに基づいて読み出すとともに、 現フレームに表示すべきォブジ ェクト画像デ一夕をオブジェクトメモリ 7 5から読み出し、 さらに、 現フレーム の背景画像データと、 オブジェクトメモリ 7 5から読み出したオブジェクト画像 デ一夕とを、 付加情報に含まれるォブジヱクト動きべクトルに基づいて合成する c これにより、 現フレームの画像を構成して、 表示メモリ 7 8に書き込む。 すなわ ち、 合成部 7 7は、 例えば表示メモリ 7 8に対して、 背景画像デ一夕を書き込み、 その後、 オブジェクト画像データを上書きすることで、 背景画像とオブジェクト 画像を合成した現フレームの画像データを、 表示メモリ 7 8に書き込む。
以上のようにして、 表示メモリ 7 8に書き込まれた現フレームの画像デ一夕、 及びサブウインドウメモリ 7 9に書き込まれたオブジェクト画像デ一夕は、 図 4 の画像出力部 2 3に供給され、 表示部 7に表示されることになる。
一方、 ステップ S 3 2において、 付加情報に高解像度情報が含まれていないと 判定された場合、 すなわち受信装置 2のユーザがクリックデ一夕入力部 2 4を操 作していない場合は、 ステップ S 3 3及び S 3 4の処理がスキップされ、 ステツ プ S 3 5に進み、 上述したように合成部 7 7において背景メモリ Ί 3から現フレ ームの背景画像デ一夕が読み出されるともに、 オブジェクトメモリ 7 5から必要 なォブジェクト画像データが読み出され、 現フレームの背景画像とオブジェクト メモリ 7 5から読み出したオブジェクト画像とが、 付加情報にしたがって合成さ れる。 これにより、 現フレームの画像データが構成され、 表示メモリ 7 8に書き 込まれる。 そして、 ステヅプ S 3 1に戻り、 以下、 同様の処理が繰り返される。 以上のような合成処理によれば、 受信装置 2のユーザがクリックデ一夕入力部 2 4を操作していない場合、 すなわちクリヅクデ一夕入力部 2 4にてクリヅクが 行われていない場合には、 図 1 4 Aに示すように、 表示部 7の表示画面上には空 間解像度の低い画像がデフォルトの時間解像度で表示される。 なお、 図 1 4 Aに おいては、 空間解像度の低い背景画像の上を、 空間解像度の低いオブジェクト画 像が、 右方向に移動しているときの画像例を示している。 そして、 受信装置 2のユーザが、 クリックデ一夕入力部 2 4を操作して、 カー ソルをオブジェクト画像上に移動させ、 その位置でクリックを行うと、 上述した ように、 送信装置 1にクリックデ一夕が送信され、 送信装置 1では、 そのクリヅ クデ一夕に基づいて特定した優先範囲の画像を、 空間解像度の高い画像として表 示するためのデータが、 時間解像度を犠牲にして送信されてくる。 その結果、 図 1 4 Bに示すように、 表示部 7の表示画面上には、 時間.解像度は低いが、 クリツ クが行われている位置を中心とする優先範囲内にあるオブジェクト画像の空間解 像度が徐々に向上していく画像が表示される。 すなわち、 表示される画像は、 ク リックが行われている時間に応じて、 優先範囲内の画像の空間解像度が徐々に向 上していく。
さらに、 この場合、 表示部 7上には、 図 1 4 Bに示すように、 サブウィンドウ がオープンされ、 そのサブウインドウにクリヅクが行われている位置を含んで抽 出された優先範囲内にあるオブジェクトの空間解像度が徐々に向上するような表 示がなされる。
その後、 受信装置 2のュ一ザが、 クリックデータ入力部 2 4によるクリックを 停止すると、 合成部 7 7は、 上述したようにステヅプ S 3 5において背景メモリ 7 3から現フレームの背景画像データを読み出すともに、 オブジェクトメモリ 7 5からオブジェクト画像データを読み出し、 現フレームの背景画像デ一夕とォブ ジ工クト画像データとを、 付加情報にしたがって合成し、 表示メモリ 7 8に書き 込む。 上述したように、 クリックされることにより空間解像度が高くなつたォブ ジェクト画像データは、 そのままオブジェクトメモリ 7 5に記憶され続けるので、 表示部 7においては、 図 1 4 Cに示すように、 クリヅクされることにより空間解 像度が高くなつたオブジェクト画像が、 付加情報の動きべクトルに基づいて移動 し、 現フレーム上で表示されるべき位置に表示される。
したがって、 受信装置 2のユーザは、 詳細を見たいオブジェクト画像が表示さ れている位置でクリックを行うことにより、 空間解像度が高くなつたオブジェク ト画像を見ることが可能となる。 すなわち、 オブジェクトの詳細な画像を見るこ とが可能となる。
なお、 背景画像データは、 上述したように背景メモリ 7 3に記憶されるので、 送信装置 1においては一度送信した空間解像度の低い背景を送信する必要はなく、 従って、 その分の伝送レートを、 より空間解像度の高いオブジェクト画像デ一夕 の送信に優先的に割り当てることが可能である。
また、 上述の場合においては、 クリックされることにより空間解像度が高くな つたオブジェクト画像デ一夕を、 オブジェクトメモリ 7 5に記憶しておき、 クリ ックが停止された後は、 その空間解像度の高いオブジェクト画像を背景画像に貼 り付けるようにしたため、 受信装置 2において表示されるオブジェクト画像は、 空間解像度の高いものとなるが、 このときのオブジェクト画像には、 送信装置 1 で撮影されたオブジェクト画像の状態の変化は反映されないことになる。
そこで、 クリヅクが停止された後は、 オブジェクトフラグを無視し、 図 1 1に ^す復号部 5 3の記憶部 6 2 Fに記憶されたオブジェクト画像データを、 ォブジ ヱクトメモリ 7 5に記憶された高い空間解像度であるオブジェクト画像デ一夕に 対して上書きすることが可能である。 すなわち、 復号部 5 3の記憶部 6 2 Fには、 送信装置 1から送信されてくるオブジェクト画像デ一ダが順次記憶されるから、 そのオブジェクト画像データを、 オブジェクトメモリ 7 5に書き込むことで、 上 述したようにして表示部 7に表示される画像のうちのオブジェクト画像は、 送信 装置 1で撮影されたオブジェクトの状態の変化が反映されたものとなる。 但し、 表示されるオブジェクト画像は、 空間解像度の低いものとなる。
次に、 図 1 5を参照して、 送信装置 1から、 伝送路を介して、 受信装置 2に送 信される画像の空間解像度と時間解像度との関係について説明する。
なお、 伝送路の伝送レ一トは R [bps]とし、 さらに、 ここでは、 背景画像と 3つ のオブジェクト画像 # 1乃至 # 3からなるデータを送信するとする。 また、 ここ では、 説明を簡単にするために、 付加情報は考えないこととし、 さらに、 背景画 像、 オブジェクト画像 # 1乃至 # 3それぞれを、 ある空間解像度で表示するため には、 同一のデ一夕量のデータが必要であるとする。
この場合、 送信装置 1では、 受信装置 2でクリックが行われていない場合、 図 1 5 Aに示すように、 背景画像、 オブジェクト画像 # 1乃至 # 3それそれが、 伝 送レート Rを 4等分したレート R / 4 [bps]で送信される。 なお、 通常の時間解像 度が 1 / Tフレーム/秒であるとすると、 送信装置 1は、 背景画像、 オブジェク ト画像 # 1乃至 # 3それそれの 1フレーム分のデ一夕の送信を、 長くても T秒で 完了することができるように行う。 したがって、 この場合、 受信装置 2では、 1 フレーム当たり T X R / 4ビヅ卜のデータで得られる空間解像度の背景画像、 ォ ブジェクト画像 # 1乃至 # 3がそれぞれ表示される。
そして、 ある時刻 t lにおいて、 例えばオブジェクト画像 # 1の位置で、 ユーザ がクリックを行うと、 送信装置 1は、 例えば図 1 5 Aに示すように、 背景画像並 びにォブジェクト画像 # 2及び" # 3のデータ送信を例えば停止し、 オブジェクト 画像 # 1のみを、 伝送路の伝送レート Rすべてを用いて送信する。 その後、 時刻 t から時間 4 Tだけ経過した時刻 2において、 ユーザがクリヅクを停止したと すると、 送信装置 1は、 再び、 背景画像、 オブジェクト画像 # 1乃至 # 3それそ れを、 伝送レート R Z 4で送信する。
したがって、 クリヅクが行われている間においては、 オブジェクト画像 # 1に ついては、 4 T X Rビッ トのデータが送信されるので、 クリックが行われている 間の時間解像度を 0フレーム Z秒とすると、 受信装置 2では、 1フレーム当たり 4 T X Rビットのデ一夕で得られる空間解像度のオブジェクト画像 # 1が表示さ れる。 すなわち、 水平方向及び垂直方向の空間解像度を同じだけ向上させた場合、 受信装置 2では、 時間解像度は 0フレーム/秒になるが、 ュ一ザがクリヅクした オブジェクト画像 # 1については、 水平方向及び垂直方向の両方の空間解像度が、 クリックが行われる前の 4倍 (= ( 4 Τ Χ R / ( T X R / 4ビツト) ) ) とな つたものが表示されることになる。
このように、 時間解像度を犠牲にすることにより、 空間解像度をより向上させ ることができ、 更に時間解像度を犠牲にしない場合に比較して、 ユーザが注目し ているォブジヱクト画像の空間解像度を、 より迅速に向上させることができる。 なお、 図 1 5 Aに示す例では、 オブジェクト画像 # 1のクリヅクが行われてい る間、 背景画像並びに他のォブジヱクト画像 # 2及び # 3のデータの伝送レート を 0フレーム/秒としてそれらを完全に送信しないようにしたが、 例えば図 1 5 Bに示すように、 オブジェクト# 1のデ一夕の送信には高い伝送レートを割り当 て、 背景画像並びに他のオブジェクト画像 # 2及び # 3のデ一夕の送信には、 低 い伝送レートを割り当てるようにすることも可能である。 また、 クリックが行われても、 背景画像、 オブジェクト画像 # 1乃至 # 3それ それの送信に割り当てる伝送レートは、 R / 4のまま変えないことも可能である ( すなわち、 この場合は、 時間解像度を犠牲にして、 空間解像度を向上させるため、 伝送レートの割り当てを変えなくても、 時間は要するようになるが、 空間解像度 を向上させることができる。
上述したように、 クリックされることにより空間解像度が高くなつたオブジェ クト画像を、 オブジェクトメモリ 7 5に記憶しておき、 クリックが停止された後 に、 その空間解像度の高いオブジェクト画像を背景画像に貼り付けるようにした が、 この空間解像度の高いオブジェクト画像を、 背景画像のどの位置に貼り付け るかは、 その後に送信装置 1から送信されてくる、 そのオブジェクトについての 付加情報に含まれるォブジェクト動きべク トルに基づいて決定される。
したがって、 受信装置 2は、 あるフレームのオブジェクト画像が、 そのフレー ムに隣接するフレームのどのオブジェクト画像に対応するのかということを認識 する必要があり、 送信装置 1のオブジェクト抽出部 1 4は、 オブジェクトの抽出 にあたり、 受信装置 2が、 そのような認識を行うための情報を付加するようにも なっている。
上述の説明では、 受信装置 2のユーザがクリックデ一夕入力部 2 4を操作する ことにより注目点を指定したときには、 送信装置 1において、 画像の時間解像度 を犠牲にして、 注目点を含む有線範囲の画像の空間解像度を向上させるように、 データの送信制御を行う例を述べたが、 送信装置 1では、 例えば受信装置 2のュ 一ザの嗜好を学習し、 その学習結果に基づいて、 受信装置 2のユーザが高い空間 解像度での表示を希望していると考えられるォブジェクト等を予測検出して、 そ のォブジェクトが高い空間解像度で表示されるように、 デ一夕の送信制御を行う ことも可能である。
図 1 6には、 そのような送信制御を行う場合の、 図 6の制御部 3 5の構成例を 示している。
この図 1 6において、 優先範囲設定部 9 1は、 受信装置 2から送信されてくる クリックデ一夕を受信し、 前述同様に優先範囲を設定するようになされており、 その設定された優先範囲は、 選択制御部 9 2及び特徴量抽出部 9 3に供給される c 選択制御部 9 2は、 上記優先範囲設定部 9 1から供給される優先範囲を示す信 号と図 6のデータ量計算部 3 から供給されるデ一夕レートの情報と後述するォ' ブジェクト検出部 9 5からの情報に基づいて、 M U X 3 2による背景画像、 ォブ ジェクト画像、 付加情報の各データの選択を制御する。 すなわち、 選択制御部 9 2は、 優先範囲設定部 9 1から優先範囲を表す信号を受け取った場合、 その優先 範囲内の画像の空間解像度を、 画像の時間解像度を犠牲にして向上させるように、 M U X 3 2での多重化を制御する。 また、 選択制御部 9 2は、 オブジェクト検出 部 9 5が検出したオブジェクトを表すラペルの情報を受け取ると、 そのラペルが 付されたオブジェクトの空間解像度を、 画像の時間解像度を犠牲にして向上させ るように、 M U X 3 2を制御する。 また、 選択制御部 9 2には、 データ量計算部 3 4から、 M U X 3 2が出力する多重化データのデ一夕レ一トが供給され、 選択 制御部 9 2は、 そのデ一夕レートが伝送路の伝送レートを超えないように、 M U X 3 2によるデ一夕の選択を制御する。
特徴量抽出剖 9 3には、 前処理部 1 2が出力する背景画像データ、 オブジェク ト画像データ、 及び付加情報と、 優先範囲設定部 9 1が出力する優先範囲を示す 信号とが供給されるようになっており、 特徴量抽出部 9 3は、 優先範囲設定部 9
1により設定された優先範囲内にある画像の特微量を抽出するようになっている すなわち、 特徴量抽出部 9 3は、 例えば、 優先範囲内に存在するオブジェクトに ついて、 受信装置 2のユーザが注目する傾向を反映するような特徴量を抽出する c 具体的には、 図 1 7に示すように、 例えば、 ある特定の 「人」 を表すオブジェ クトについては、 そのオブジェクトが 「人」 であること、 動きが例えば等速であ ること、 オブジェクトの奥行き方向の位置 (深度). が手前であること、 オブジェ クトの画面上の位置が真ん中であること、 オブジェクトが速度を持っていること
(オブジェク卜が動いている部分のものであること) 、 オブジェクトを構成する 領域に、 例えば目、 鼻、 口が含まれること (オブジェクトの領域が、 目、 鼻、 口 を含んで構成されること) 、 オブジェクトの模様が例えばしま模様であること
(オブジェクトがしま模様の部分のものであること) 、 オブジェクトの色が例え ば赤いこと (オブジェクトが赤い部分のものであること) 等を表す特徴量が抽出 される。 特徴量抽出部 9 3は、 さらに、 上記抽出したオブジェクトの各特徴量を要素と して構成されるベクトル (特徴量ベクトル) を求めると共に、 ヒストグラム記憶 部 9 4に記憶されているヒストグラムの、 上記求めた特徴量べクトルの度数を 1 だけインクリメントする。
ヒストグラム記憶部 9 4は、 特徴量抽出部 9 3で求められる特徴量べクトルの ヒストグラムを、 受信装置 2のユーザの嗜好の学習結果として記憶する。
次に、 オブジェクト検出部 9 5は、 前処理部 1 2から供給されるォブジヱクト 画像の中から、 ヒストグラム記憶部 9 4に記憶されたヒストグラムの最高頻度の 特徴量べクトルと同様の特徴量ぺクトルが求められるオブジェクトを検出する。 すなわち、 オブジェクト検出部 9 5は、 前処理部 1 2から供給されるオブジェク 卜について、 特徴量抽出部 9 3における場合と同様にして、 特徴量ベクトルを求 める。 さらに、 オブジェクト検出部 9 5は、 ヒストグラム記憶部 9 4に記憶ざれ たヒストグラムを参照し、 その最高頻度の特徴量ベクトルを中心とする、 特徴量 べクトル空間の所定の範囲内に、 前処理部 1 2からのオブジェクトの特徴量べク トルが存在するかどうかを判定し、 存在する場合には、 そのオブジェクトは、 受 信装置 2のユーザが注目する傾向にあるものであるとして予測し、 そのオブジェ クトを表すラベルを、 選択制御部 9 2に供給する。
次に、 図 1 8のフローチャートを参照して、 図 1 6に示したように動作する制 御部 3 5による M U X 3 2の制御処理について説明する。
先ず、 最初に、 ステップ S 8 1において、 優先範囲設定部 9 1は、 受信装置 2 からクリヅクデ一夕が送信されてきたかどうかを判定する。 ステヅプ S 8 1にお いて、 受信装置 2からクリックデ一夕が送信されてきたと判定された場合、 ステ ヅプ S 8 2に進み、 優先範囲設定部 9 1は、 そのタリヅクデ一夕に基づき、 前述 したように優先範囲を設定し、 その優先範囲を表す信号を選択制御部 9 2及び特 徴量抽出部 9 3に供給する。
選択制御部 9 2は、 ステップ S 8 3において、 上記優先範囲内の画像 (ォブジ ェクト画像) の空間解像度を、 画像の時間解像度を犠牲にして向上させるように、 M U X 3 2を制御する。
また、 特徴量抽出部 9 3は、 ステップ S 8 4において、 上記優先範囲内にある オブジェクトの特徴量を抽出し、 その抽出したオブジェクトの各特徴量を要素と して構成される特徴量ベクトルを求める。 さらに、 特徴量抽出部 9 3は、 ステヅ プ S 8 5において、 ヒストグラム記憶部 9 4に記憶されているヒストグラムの、 上記求めた特徴量べクトルの度数を 1だけインクリメントし、 ステヅプ S 8 1に 戻る。
以上のステップ S 8 1乃至 S 8 5の処理が繰り返されることにより、 ヒストグ ラム記憶部 9 4には、 受信装置 2のユーザが注目する傾向にあるォブジヱクトの 特徴量ベクトルのヒストグラムが形成されていく。 すなわちこれにより、 受信装 置 2のユーザの嗜好が学習されていくことになる。
一方、 ステヅプ S 8 1において、 受信装置 2からク リ ヅクデ一夕が送信されて きていないと判定された場合、 ステップ S 8 6に進み、 オブジェクト検出部 9 5 は、 前処理部 1 2から供給されるオブジェクト画像データについて、 特徴量抽出 部 9 3における場合と同様にして、 特徴量ベクトルを求める。 さらに、 オブジェ クト検出部 9 5は、 ステヅプ S 8 7において、 ヒストグラム記憶部 9 4に記憶さ れたヒストグラムを参照し、 その中で最高頻度の特徴量ベクトルを中心とする、 特徴量べクトル空間の所定の範囲内に、 前処理部 1 2からのオブジェクト画像の 特徴量ベクトルが存在するかどうかを判定する。 すなわち、 ステヅプ S 8 7では、 最高頻度の特徴量べクトルと、 前処理部 1 2からのオブジェクト画像の特徴量べ クトルとの、 特徴べクトル空間における距離が所定値以内であるかどうかが判定 される。
ステップ S 8 7において、 最高頻度の特徴量ベクトルと、 前処理部 1 2からの オブジェクト画像の特徴量べクトルとの距離が所定値以内でないと判定された場 合、 すなわち、 前処理部 1 2からのオブジェクト画像が、 過去の傾向からして、 受信装置 2のユーザが注目する確率の低いものである場合、 ステップ S 8 8に進 み、 選択制御部 9 2は、 受信装置 2において通常の時間解像度及び空間解像度が 表示されるように、 M U X 3 2を制御し、 ステヅプ S 8 1に戻る。
また、 ステヅプ S 8 7において、 最高頻度の特徴量ベクトルと、 前処理部 1 2 からのオブジェクト画像の特徴量べクトルとの距離が所定値以内であると判定さ れた場合、 すなわち、 前処理部 1 2からのオブジェクト画像が、 過去の傾向から して、 受信装置 2のユーザが注目する確率の高いものである場合、 ォブジェクト 検出部 9 5は、 前処理部 1 2からのオブジェクトのラペルを、 選択制御部 9 2に 出力し、 ステヅプ S 8 9に進む。
選択制御部 9 2は、 ステップ S 8 9において、 オブジェクト検出部 9 5からの 上記ラペルが付されたォブジェクト画像の空間解像度を、 画像の時間解像度を犠 牲にして向上させるように、 M U X 3 2を制御し、 ステップ S 8 1に戻る。 従って、 この場合、 受信装置 2では、 時間解像度を犠牲にして、 オブジェクト 検出部 9 5が出力したラベルの付されたオブジェクト画像が、 高い空間解像度で 表示される。 そして、. その後も、 そのオブジェクトは、 高い空間解像度で表示さ れ続ける。
その結果、 受信装置 2では、 ユーザがクリヅクデ一夕入力部 2 4を操作しなく ても、 ユーザが注目する傾向のあるオブジェクトが表示される場合には、 そのォ ブジェク トは、 いわば自動的に高い空間解像度で表示され、 その後も、 その高い 空間解像度で表示され続けることになる。
なお、 ヒストグラム記憶部 9 4に記憶された、 受信装置 2のユーザの嗜好の学 習結果としての特徴量ベク トルのヒス トグラムは、 例えば、 定期的または不定期 に、 或いは受信装置 2のユーザからの要求に対応して、 リセットすることが可能 である。
次に、 本発明において、 データの提供やデータ送受信に応じて行われる課金、 例えば図 1の管理センタ 1 0 3を通じて行われる端末 1や 2へのデ一夕提供や端 末 1と 2の間でのデ一夕送受信に応じた課金などの流れ及びそのためのシステム 構成の詳細について、 以下に説明する。
一般に、 ソフ トゥヱァは、 様々な処理手法 (プログラム) の融合によって構成 されているものであり、 例えば、 表計算ソフ トの場合には、 単なる四則演算を行 うためのプログラムだけでなく、 統計処理を行うためのプログラム等も含まれて いる。 通常は、 ソフトウエアを構成するそれらの処理手法 (プログラム、 以下適 宜メソヅ ドと呼ぶ) が記録された C D— R O M等のパヅケージメディァが巿販さ れ、 当該パヅケージメディアを購入することで、 ユーザはそのソフトウェアの使 用権を取得し、 利用可能な状態になる。 本発明の場合は、 パッケージメディアを購入した時点でユーザが利用権を獲得 するのではなく、 ユーザがソフトウェアを利用する度毎に利用権を獲得し、 また、 ソフトウエアの機能のうちで必要なメソヅドの利用権を獲得するようなシステム を提供する。 したがって、 ユーザは、 ソフトゥヱァを利用した場合にのみ、 また、 ソフトウエアの機能のうちで必要なメソッドを使った分だけの料金を支払えば良 く、 その結果、 全てのソフトゥヱァを一括して提供する上記パッケージメディア の場合よりも安価にメソッドを利用することができる。
また、 ある一つの処理を行う場合において、 その処理結果を得るための手法に は様々な手法が考えられる。 したがって、 例えばよく似た目的を達成する処理で あっても、 より高度な手法を用いれば、 より望ましい結果を得ることができると 考えられる。 言い換えれば、 より高度な手法を用いることで、 ユーザにメリット を提供することが可能となる。
本発明の場合は、 複数用意されたそれそれ異なるアルゴリズムの中から、 ユー ザが利用するァルゴリズムを選択し、 そのアルゴリズムの高度さに応じて異なる 料金を徴収するシステムを提供する。 つまり、 本発明では、 ユーザが受けるメリ トに応じた料金をユーザに対して課金するシステムを構築している。
例えば画像通信を例に挙げて説明すると、 当該画像通信の場合は、 より高度な 圧縮手法 (アルゴリズム) を用いることで全体のデ一夕量を高品質を維持したま ま削減することが可能となるので、 データ通信の帯域が限られている場合には、 より高度なアルゴリズムを用いることで、 より高品質、 すなわち、 高解像度、 歪 みがなく、 ノィズのない画像を手に入れることが可能になる。
そこで、 本発明では、 例えば画像通信において、 同画質の場合の圧縮率が低い 手法を相対的に低度なアルゴリズム、 例えば高圧縮を実現する手法を相対的に高 度なアルゴリズムと定義し、 上記高度なアルゴリズムを用いた場合には低度なァ ルゴリズムを用いた場合に比べて高い料金を支払ってもらうこととする。 もちろ ん、 本発明は、 画像通信における画像圧縮のためのアルゴリズムに限定されるも のではなく、 例えば、 データ通信のアルゴリズムや音声処理のアルゴリズムなど、 各種様々なアルゴリズムを用いた処理においても適用可能であり、 アルゴリズム の高度さに応じた課金を行うこととする。 図 1 9には、 上述したような課金が行われる一例として、 メソッドが予めイン ストールされている端末としての処理装置 1 0 0と管理セン夕 1 0 3との間にお ける課金処理の基本モデルを示す。 なお、 図 1の管理セン夕 1 0 3を通じて行わ れる端末 1や 2へのデータ提供や端末 1 と 2の間での実際のデータ送受信に応じ た課金処理については後述する。
この図 1 9の処理装置 1 0 0には、 それそれが個々に異なる種類のァルゴリズ ム (プログラム) を用いて処理を行う複数の処理部 1 0 2 ,〜 1 0 2 »を備えたアル ゴリズム処理部 1 0 2と、 それら各処理部 1 0 2 〜 1 0 2 の各アルゴリズムの利 用を管理する利用処理管理部 1 0 1とが設けられている。 なお、 この図 1 9の例 の場合、 当該アルゴリズム処理部 1 0 2の各処理部 1 0 2 !〜 1 0 2 «のァルゴリズ ムは、 ユーザが自由に利用することができないものである。
また、 管理セン夕 1 0 3は、 処理装置 1 0 0が正当な装置であるか (ユーザが 正当なュ一ザであるか) 否かの認証情報を保持する認証用メモリ 1 0 4と、 ユー ザ (処理装置 1 0 0 ) によるアルゴリズムの利用履歴と料金計算用のテーブル 1 0 7に保持されている利用料金計算表とに基づいて、 そのユーザの利用料金を計 算する料金計算システム 1 0 6と、 全体を管理する管理システム 1 0 5とを備え ている。
この図 1 9において、 処理装置 1 0 0の各処理部 1 0 2 i〜 1 0 2 «での各処理の うち何れかを利用したい場合、 先ず、 ユーザからは、 上記それら各処理部 1 0 2 i〜 1 0 2 »のうちどの処理部を用いるか (すなわちどのアルゴリズムを用いるか) を選択するための選択入力が行われる。 当該ユーザによる選択の入力がなされる と、 利用処理管理部 1 0 1は、 先ず、 管理セン夕 1 0 3に対して処理 (アルゴリ ズム) の利用許可の問い合わせを行う。
上記利用許可の問い合わせの信号を受信すると、 管理セン夕 1 0 3の管理シス テム 1 0 5は、 その問い合わせを行った処理装置 1 0 0が、 自己の管理している 処理装置であるか否か、 すなわちその問い合わせを行った処理装置 1 0 0が正当 な装置 (正当なユーザ) であるか否かを、 認証用メモリ 1 0 4に格納されている 認証情報を元に確認する。 この認証において、 正当な処理装置 (正当なユーザ) であると確認すると、 管理システム 1 0 5は、 処理装置 1 0 0に対して、 利用許 可信号を送信する。
上記利用許可信号を受信すると、 処理装置 1 0 0の利用処理部 1 0 1は、 アル ゴリズム処理部 1 0 2を制御し、 上記ユーザが選択入力を行った処理 (管理セン 夕 1 0 3により利用許可がおりた処理) に対応する処理部での処理を直ちに開始 させる。 これによりユーザの所望する処理が実行されることになる。
また、 管理セン夕 1 0 3の管理システム 1 0 5は、 上記利用許可を送信した処 理装置 1 0 0 (ユーザ) とその利用を許可した処理 (アルゴリズム) を示す情報
(利用履歴) を、 料金計算システム 1 0 6に送る。 料金計算システム 1 0 6は、 利用履歴の情報を受け取ると、 料金計算用テーブル 1 0 7に保持されている各ァ ルゴリズム毎に設定されている利用料金計算表を用いて、 上記処理 (ァルゴリズ ム) を利用した場合の料金を計算する。 その後、 料金計算システム 1 0 6は、 上 記処理装置 1 0 0のユーザに対して、 オンライン或いはオフラインにて料金の請 求を行つ。
図 1 9には、 処理装置 1 0 0にメソヅド (プログラム) が予めィンストールさ れている場合の構成を挙げたが、 例えば図 2 0に示す課金処理の基本モデルのよ うに、 処理装置 1 1 0がメソヅド (プログラム) を持たず、 管理セン夕 1 0 3等 のサーバから、 必要に応じてメソッドを取得 (処理を行う毎にプログラムをダウ ンロード) することも可能である。
この図 2 0の処理装置 1 1 0には、 管理セン夕 1 0 3から送信されてきたメソ ヅド (プログラム) を一時的に保持するためのメモリ 1 1 1と、 そのメモリ 1 1 1に保持されたメソヅ ド (プログラム) を用いて処理を行うための M P U (マイ クロプロセヅサユニット) とが設けられている。
また、 この図 2 0の場合の管理センタ 1 0 3は、 処理装置 1 1 0が正当な装置 であるか (ユーザが正当なユーザであるか) 否かの認証情報を保持する認証用メ モリ 1 0 4と、 ユーザ (処理装置 1 1 0 ) に対するメソヅド (プログラム) の伝 送履歴と料金計算用のテーブル 1 0 7に保持されている各アルゴリズム毎の利用 料金計算表とに基づいて、 そのユーザの利用料金を計算する料金計算システム 1 0 6と、 複数の異なるアルゴリズム (プログラム) を保持するアルゴリズムメモ リ 1 1 5と、 全体を管理すると共に処理装置 1 1 0からの要求に応じてアルゴリ ズムメモリ 1 1 5からプログラムを読み出し、 例えば圧縮して処理装置 1 1 0に 送信する処理管理プロセッサ 1 1 4とを備えている。
この図 2 0において、 管理セン夕 1 0 3のアルゴリズムメモリ 1 1 5に保持さ れている各アルゴリズムに対応する処理のうち何れかを利用したい場合、 先ず、 処理装置 1 1のユーザからは、 上記各処理のうち何れかを選択するための選択指 示が行われる。 当該ユーザによる選択の指示がなされると、 処理装置 1 1 0のM P U 1 1 2は、 管理センタ 1 0 3に対して処理手法 (アルゴリズム) の送信要求 を行う。
上記アルゴリズムの送信要求を受信すると、 管理センタ 1 0 3の処理管理プロ セヅサ 1 1 4は、 その要求を行った処理装置 1 1 0が、 自己の管理している処理 装置であるか否か、 すなわちその要求を行った処理装置 1 1 0が正当な装置 (正 当なユーザ) であるか否かを、 認証用メモリ 1 0 4に格納されている認証情報を 元に確認する。 この認証において、 正当な処理装置 (正当なユーザ) であると確 認すると、 処理管理プロセ サ 1 1 4は、 アルゴリズムメモリ 1 1 5から処理手 順 (プログラム) を読み出し、 そのプログラムを例えば圧縮したり必要に応じて 暗号化等して処理装置 1 1 0に送信する。
上記送信されてきたプログラムを受信すると、 処理装置 1 1 0の M P U 1 1 は、 圧縮及び暗号化されたプログラムの解凍や暗号の復号等を行い、 得られたプ ログラムをメモリ 1 1 1に保存させる。 その後、 M P U 1 1 2は、 そのメモリ 1 1 1に保存したプログラムを用いて処理を行う。 これによりユーザの所望する処 理が実行されることになる。 なお、 上記メモリ 1 1 1に保存されたプログラムは、 上記処理が終了すると、 当該プログラムが再度利用されないように自己破壊ある いは自動的に消去される。
また、 管理センタ 1 0 3の処理管理プロセッサ 1 1 4は、 上記プログラムを送 信した処理装置 (ユーザ) とその処理手法 (アルゴリズム) を示す情報 (伝送履 歴) を、 料金計算システム 1 0 6に送る。 料金計算システム 1 0 6は、 伝送履歴 の情報を受け取ると、 料金計算用テーブル 1 0 7に保持されているテーブルを用 いて、 上記処理 (アルゴリズム) を利用した場合の料金を計算する。 その後、 料 金計算システム 1 0 6は、 上記処理装置 1 1 0のユーザに対して、 オンライン或 いはオフラインにて料金の請求を行う。
次に、 上述した課金処理モデルを実際のシステム構成に適用した場合、 すなわ ち例えば本実施の形態では前記図 1の管理セン夕 1 0 3を通じて行われる端末 1 や 2へのデータ提供や端末 1と端末 2の間でのデータ送受信に応じた課金処理の 場合について、 図 2 1以降の各図を参照しながら説明する。
ここで、 図 1に示した構成の場合、 前述したように、 送受信される画像のデー 夕量が問題になり、 前述の例では、 画像を背景、 オブジェクト、 付加情報に分け、 さらに階層符号化することによってデータ量を制御しているが、 以下の例では、 デ一夕量制御のために、 異なる画像圧縮のアルゴリズムの中から、 ユーザが要求 する画質に応じたアルゴリズムを適宜選択し、 その選択されたァルゴリズムを利 用して圧縮された画像デ一夕を送受信する例を挙げている。 なお、 本実施の形態 では、 上記画像圧縮のための異なるアルゴリズムとして、 前記階層符号化の他に、 それそれ後述するサブサンプル、 オブジェクト符号、 クラス分類適応予測符号、 その他 (例えば M P E G等) 等を例に挙げている。
また、 本発明の場合、 上記選択されるアルゴリズムには、 上記画像圧縮のため のァルゴリズムだけでなく、 状況に応じてそれら画像圧縮のァルゴリズムを自動 選択 (最適化) するためのアルゴリズム、 前述の図 1 6〜図 1 8を用いて説明し たように、 学習することによって画像中からユーザが興味を持っている領域 (注 目点) を予測するためのアルゴリズム、 装置の電力使用量の自動制御を行うため のアルゴリズム等のように、 あらゆる階層 (ソフトウェア層) のアルゴリズムを も、 それぞれ選択可能となされている。 すなわち、 装置により使用されるソフト ウェア層は、 例えばハードウェアの制御ソフトウェア、 O S (オペレーションシ ステム) 、 アプリケーションソフトウェア等からなるが、 本実施の形態によれば、 上記画像圧縮のアルゴリズムや、 アルゴリズム自動選択 (最適化) のァルゴリズ ム、 注目点の予測アルゴリズムのようなアプリケーションソフトウェア層におけ る異なるアルゴリズムの選択だけでなく、 電力使用量の自動制御アルゴリズムや 各種ハードウヱァの切替制御アルゴリズムなどのようなハードゥヱァ制御ソフト ゥヱァ層についての異なるァルゴリズムをも選択可能となっている。
本発明では、 上述のように複数の異なるァルゴリズムのうちから所望のァルゴ リズムの選択がなされると、 その選択されたアルゴリズムに応じた課金が行われ ることになる。 なお、 各アルゴリズムに対する課金額は、 例えばそれそれの階層 での選択毎の料金の和で定義する。
図 2 1には、 ユーザが要求する画質に応じて、 画像圧縮のための異なるァルゴ リズムの中から適宜選択されたアルゴリズムを利用して画像データを圧縮し、 そ の圧縮画像データを送受信可能としたシステムの主要部の構成例を示す。 ここで は、 説明を分かり易くするために、 図 2 1の構成として、 図 1のシステムに本実 施の形態の課金処理モデルを適用した場合の主要部のみを示しており、 前記図 1 の送信装置 1や受信装置 2が備える他の構成については省略している。 また、 送 信装置 1と受信装置 2は基本的に同じ構成を備えているが、 図 2 1では図示を簡 略化するために、 送信装置 1には受信装置 2からの送信要求に応じた画像デ一夕 送信のための主要部の構成のみを、 また受信装置 2にはユーザの要求とそれに応 じて送信されてくる画像データの受信のための主要部の構成のみを示している。 図 2 1に示す送信装置 1は、 主要部の構成として、 画像データを取り込むため の前記ビデオカメラ部 6 (前記画像入力部 1 1 ) と、 画像圧縮のためのそれそれ 異なるアルゴリズムであるサブサンプル圧縮、 オブジェクト符号圧縮、 クラス分 類適応予測圧縮、 階層符号化等をそれそれ実行するためのサプサンプル圧縮処理 部 1 2 2、 ォブジヱクト符号圧縮処理部 1 2 3、 クラス分類適応予測圧縮処理部 1 2 4、 前記階層符号化処理部 1 2 5等を有する画像圧縮処理部 1 2 1と、 圧縮 された画像データを送信するための画像デ一夕送信部 1 2 7と、 画像デ一夕の送 信要求を受信するための要求受信部 1 2 6と、 上記画像データの送信要求を受信 したとき、 その送信要求に応じて上記画像圧縮処理部 1 2 1を制御すると共に、 必要に応じて上記画像圧縮のアルゴリズムの自動選択 (最適化) やユーザの興味 の注目点予測等を行う制御部 1 2 8とを備えている。
また、 受信装置 2は、 主要部の構成として、 ユーザによる選択入力 (この例で は画質選択のための入力) がなされるユーザ指示入力部 1 3 2と、 そのユーザに よる選択入力に基づいて画像圧縮のためのアルゴリズムから何れかのアルゴリズ ムを選択したり、 状況に Jifeじてそれら画像圧縮のアルゴリズムを自動選択 (最適 化) するためのアルゴリズム、 画像中からユーザが興味を持っている領域 (注目 点) を予測するためのアルゴリズム、 装置の電力使用量の自動制御を行うための アルゴリズム等を要求する要求信号を生成する制御部 1 3 3と、 その要求信号を 管理セン夕に送信し、 また管理セン夕 1 0 3からの許可信号を受信する要求送信 許可受信部 1 3 4と、 上記電力使用量の自動制御アルゴリズムを使用する場合に 当該装置の電力制御を行う消費電力制御部 1 3 1と、 送信されてきた圧縮画像デ 一夕を受信する画像データ受信部 1 3 5と、 その受信した圧縮画像データを圧縮 時のアルゴリズムに対応して復号する圧縮画像データ復号部 1 3 6と、 復号され た画像を表示する表示部 1 3 7 (前記表示部 7に相当する) とを備えている。 なお、 図 2 1の構成では、 前記図 1 9のモデルの例のように装置自身が予め複 数のメソヅドを保持している例を挙げているが、 前記図 2 0のモデルのように、 管理セン夕 1 0 3から必要に応じてメソヅドを取得するものであってもよい。 し たがって、 管理センタ 1 3 0は、 図 1 9と図 2 0の何れのモデルを採用するかに より、 図 1 9或いは図 2 0の何れかの構成を取るか或いは両方の構成を有するこ とになる。
この図 2 1において、 送信装置 1のビデオカメラ部 6にて取り込んだ画像デー 夕を受信装置 2で取得する場合、 当該受信装置 2のユーザ指示入力部 1 3 2から は、 ユーザによる指示信号が入力される。 なお、 この指示信号の入力がなされる 場合の指示の基準 (アルゴリズム選択の基準) は、 要求する画像の画質 (処理結 果の性能) 、 処理速度、 処理時間、 デ一夕転送時間、 処理結果、 利用料金、 利用 電力量 (消費電力) 等である。
また、 前述する P C T出願公開番号 W O 0 1 / 1 1 8 8 9 A 1で鬨示されるマ ウスクリックによる画像内での位置を指示する機能も、 ユーザ指示入力部 1 3 2. は有している。 ユーザの注目点を予測する際にも利用されるとともに、 信号処理 されるデータの領域をマウスクリヅクで指定した周辺画像プロックのみとするよ うに利用することも可能である。
ここで、 上記ユーザ指示入力部 1 3 2からの指示信号として、 所望の画質を要 求するための指示信号が入力されたとき、 制御部 1 3 3は、 その指示信号に対応 した画質を実現可能な画像圧縮のためのアルゴリズムを要求するための要求信号 を生成し、 要求送信許可受信部 1 3 4へ送る。 要求送信許可受信部 1 3 4は、 上 記要求信号を図示しない基地局や交換局などを介して管理センタ 1 0 3に送る。 なお、 この時点で通信経路の確保等の初期化処理が既に終わっているとする。 管理セン夕 1 0 3は、 上記要求信号を受け取ると、 その要求信号を送信してき た受信装置 2が、 自己の管理している受信装置であるか否か、 すなわちその選択 信号を送信してきた受信装置 2が正当な装置 (正当なユーザ) であるか否かを確 認し、 正当な受信装置であると確認したとき、 図示しない基地局や交換局などを 介して送信装置 1にその要求信号を送信すると共に許可信号を受信装置 2に送信 する。
送信装置 1の要求受信部 1 2 6は、 上記選択信号を受信すると、 その要求信号 を制御部 1 2 8に送る。 制御部 1 2 8は、 上記選択信号の内容を解析し、 その解 析結果に基づき、 上記ビデオカメラ部 6から取得した画像デ一夕を上記サブサン プル圧縮、 オブジェクト符号圧縮、 クラス分類適応予測圧縮、 階層符号化の何れ のァルゴリズムを利用して圧縮するか決定し、 その決定したァルゴリズムに対応 する処理部 1 2 2〜 1 2 5を動作させる。 このようにして画像圧縮処理部 1 2 1 により圧縮された画像データは、 画像デ一夕送信部 1 2 7に送られる。 画像デ一 タ送信部 1 2 7は、 制御部 1 2 8の制御の元で、 上記圧縮画像データを、 図示し ない基地局や交換局などを介して受信装置 2に送る。 なお、 送信装置 1から出力 された圧縮画像データを一旦管理セン夕 1 0 3に送り、 その管理セン夕 1 0 3か ら当該圧縮画像データを図示しない基地局や交換局などを介して受信装置 2に送 信するようにしてもよい。
受信装置 2の画像データ受信部 1 3 5は、 上記圧縮画像データを受信すると、 その圧縮画像データを圧縮画像データ復号部 1 3 6に送る。 圧縮画像デ一夕復号 部 1 3 6は、 上記制御部 1 3 3の制御の元、 先に選択されて利用許可のなされた 画像圧縮のァルゴリズムに対応した復号アルゴリズムを使用して、 その圧縮画像 デ一夕を復号し、 表示部 1 3 7に送る。 これにより、 表示部 1 3 7上には、 上記 送信装置 1のビデオカメラ部 6により撮影された画像が表示されることになる。 また、 受信装置 2において、 ユーザによりユーザ指示入力部 1 3 2から、 上記 状況に応じてそれら画像圧縮のアルゴリズムを自動選択 (最適化) するためのァ ルゴリズムや、 画像中からユーザが興味を持っている領域 (注目点) を予測する ためのアルゴリズムを指示する旨の指示信号が入力されると、 制御部 1 3 3は、 上記ユーザ指示入力部 1 3 2からの指示信号に基づいて、 上記アルゴリズム自動 選択 (最適化) のためのアルゴリズムや注目点の予測のためのアルゴリズムの要 求信号を生成し、 要求送信許可受信部 1 3 4へ送る。 これにより、 要求送信許可 受信部 1 3 4からは、 上記要求信号が管理セン夕 1 0 3に送られることになる。 管理セン夕 1 0 3は、 上記要求信号の認証を行い、 確認後にその要求信号を送 信装置 1へ送信すると共に許可信号を受信装置 2に送信する。
このときの送信装置 1の制御部 1 2 8は、 上記要求信号の内容を解析し、 その 解析結果に基づき、 上記サブサンプル圧縮、 ォブジヱクト符号圧縮、 クラス分類 適応予測圧縮、 階層符号化の何れのァルゴリズムを状況に応じて自動選択したり、 ユーザの注目点 (ユーザの注目オブジェクト画像) の予測を行って、 その注目ォ ブジェク ト画像に対する圧縮率を他の画像よりも低く し高画質にするように、 画 像圧縮処理部 1 2 1を制御する。 このようにして画像圧縮処理部 1 2 1により圧 縮された画像デ一夕は、 画像デ一夕送信部 1 2 7から送信され、 基地局、 交換局 等を介して、 受信装置 2の画像データ受信部 1 3 5に受信される。
このときの受信装置 2の圧縮画像データ復号部 1 3 6では、 上記制御部 1 3 3 の制御の元、 上記アルゴリズム自動選択により選択された画像圧縮のァルゴリズ ムに対応した復号アルゴリズムを使用して、 その圧縮画像デ一夕を復号し、 表示 部 1 3 7に送ることになる。
また、 受信装置 2において、 ユーザによりユーザ指示入力部 1 3 2から上記電 力使用量の自動制御のアルゴリズムを指示する旨の指示信号が入力されると、 制 御部 1 3 3は、 装置の消費電力の自動制御アルゴリズムの利用許可の問い合わせ 信号を要求送信部 1 3 4を介して管理セン夕 1 0 3に送る。 この問い合わせ信号 に対応した許可信号が管理セン夕 1 0 3から送信されてくると、 受信装置 2では、 消費電力制御のためのアルゴリズムを利用可能となり、 消費電力制御部 1 3 1は 当該装置の消費電力の自動制御を行う。
上述したような処理と同時或いは後に、 管理セン夕 1 0 3では、 上記利用許可 を送信した受信装置 (ユーザ) と、 その利用を許可した処理、 すなわち画像圧縮 のアルゴリズムや、 アルゴリズム自動選択 (最適化) のためのアルゴリズム、 注 目点の予測のためのアルゴリズム、 消費電力の自動制御のためのアルゴリズム等 の利用履歴情報を用いて、 受信装置 2のュ一ザに対する利用料金を'計算し、 その 利用料金請求を行う。 これにより、 受信装置 2のユーザは、 当該利用料金請求に 応じた料金を管理セン夕 1 0 3に支払うことになる。 なお、 図 2 1の例の場合、 各画像圧縮のアルゴリズムによる処理や、 自動選択 (最適化) のためのアルゴリ ズムによる処理、 ユーザ注目点の予測を行うアルゴリズムによる処理は、 実際に は送信装置 1において行われる処理であるが、 これらアルゴリズムを選択し、 且 つそのメリヅトを受けているのは、 受信装置 2であるため、 それらのァルゴリズ ムに応じた課金は、 そのメリヅトを受けている受信装置 2 (ユーザ) に対して行 われる。
ここで、 利用された各アルゴリズムに対する課金額は、 例えばそれぞれの階層 での要求毎の料金の和で定義されている。 したがって、 例えば上記画像圧縮のァ ルゴリズムのみ利用された場合、 前記サブサンプル圧縮、 オブジェクト符号圧縮、 クラス分類適応予測圧縮、 階層符号化の各アルゴリズム毎に予め設定された利用 料の課金がなされる。 また、 例えば、 前記アルゴリズム自動選択 (最適化) のた めのアルゴリズムが利用された場合、 そのアルゴリズム自動選択のためのァルゴ リズムの利用料金に加えて、 当該自動選択アルゴリズムにより選択された画像圧 縮のためのァルゴリズムの利用料金もプラスされて課金されることになる。 同様 に、 前記ユーザ注目点の予測を行うアルゴリズムゃ消費電力の自動選択アルゴリ ズムが利用された場合にはその利用料もプラスされて課金がなされる。 なお、 利 用料の請求は、 利用料の計算結果を元に、 逐次あるいはある期間でまとめて、 ュ 一ザに請求するような手法をとることができる。 また、 上記課金は、 時間従量制 を併用してもよい。
本実施例では、 管理センタ 1 0 3からのオンライン或いはオフラインの受信装 置 2のユーザに対して利用料金請求を行い、 ユーザがその請求に応じてオンライ ン或いはオフラインにより指定口座などに料金を振り込むことによる課金手法が 開示されている。 これに限らず、 管理セン夕 1 0 3は、 予め受信装置 2のユーザ 識別子毎にユーザ口座番号と、 管理セン夕 1 0 3の口座番号が記憶され、 受信装 置 2のユーザの要求信号に応じて、 料金計算システム 1 0 6がユーザに対する料 金を演算し、 少なくともユーザの口座番号、 管理センタ 1 0 3の口座番号、 及び ユーザに対する請求金額に対応する金額情報を外部の決済センサに送信すること により、 即時決済を行うように構成してもよい。
なお、 受信装置のユーザは、 例えば上記画質のように、 自己の要求を指示すれ ば良いのであって、 自己がアルゴリズムの選択を行っているという意識をもつ必 要は必ずしもない。
次に、 図 2 2には、 図 2 1の例えば送信装置 1における処理の流れを示す。 図 2 2において、 先ず、 要求受信部 1 2 6では、 ステップ S 1 0 1の処理とし て、 前記アルゴリズムの要求信号の受信待ちとなっており、 上記要求信号を受信 すると、 その要求信号を制御部 1 2 8に送る。
制御部 1 2 8は、 上記アルゴリズムの要求信号を受信すると、 ステップ S 1 0 2の処理として、 画像圧縮処理部 1 2 1を制御して使用するアルゴリズムの切り 替えを行う。 すなわち、 制御部 1 2 8は、 前記各処理部 1 2 2〜 1 2 5のうち、 上記要求信号により指定されているアルゴリズムに対応する処理部を使用するよ うに、 画像圧縮処理部 1 2 1を制御する。
画像圧縮処理部 1 2 1では、 上記制御部 1 2 8によりァルゴリズムの切り替え 制御がなされると、 ステヅプ S 1 0 3の処理として、 その切り替え指定がなされ たアルゴリズムに対応する処理部を用いたコーディング (画像圧縮) を行い、 さ らに、 そのコーディングにより得られた圧縮画像データを画像データ送信部 1 2 7に送る。
画像データ送信部 1 2 7では、 ステップ S 1 0 4の処理として、 上記画像圧縮 処理部 1 2 1からの圧縮画像データを、 基地局 3 , 5、 交換局 4、 管理セン夕 1 0 3を介して受信装置 2に送信する。
その後、 当該送信装置 1 (例えば制御部 1 2 8 ) は、 ステップ S 1 0 5の処理 として、 処理の終了判定を行い、 終了しないときにはステップ S 1 0 1の処理に 戻り、 終了するときには当該図 2 2の送信装置 1での処理を終了する。
次に、 図 2 3には、 図 2 1の受信装置 2における処理の流れを示す。
図 2 3において、 先ず、 ユーザによりユーザ指示入力部 1 3 2から例えば画質 を指示するための指示信号が入力され、 さらに制御部 1 3 3にて要求信号 (利用 するアルゴリズムを示す信号) が生成されると、 その要求信号は、 ステップ S 1 1 0にて、 要求送信許可受信部 1 3 4から管理センタ 1 0 3に向けて送信される ( 上記要求信号の送信後、 制御部 1 3 3は、 要求送信許可受信部 1 3 4が管理セ ンタ 1 0 3からの前記許可信号を受信したか否かを見ており、 不許可信号が返信 されたか或いは一定時間経過しても許可信号が送信されてこない場合、 処理を終 了する。 一方、 管理センタ 1 0 3から許可信号が送信されてきた場合には、 その 後、 送信装置 1から圧縮された画像データが送信されてくることになる。
ここで画像データ受信部 1 3 5では、 圧縮画像データの受信待ちとなっており、 ステップ S 1 1 2として圧縮画像デ一夕を受信すると、 その圧縮画像データを圧 縮画像デ一夕復号部 1 3 6に送る。
圧縮画像データ復号部 1 3 6は、 上記圧縮画像データを受け取ると、 その圧縮 画像データを圧縮とは逆の処理により復号 (デコード) し、 そのデコード後の画 像信号を表示部 1 3 7に送る。 これにより、 表示部 1 3 7には画像が表示される ことになる。
その後、 当該制御部 1 3 3は、 ステップ S 1 1 4の処理として、 ユーザ指示入 力部 1 3 2から終了の要求指示がなされたか否か判定し、 ユーザ指示入力部 1 3 2より終了要求の指示がなされていない場合はステップ S 1 1 0の処理に戻り、 終了要求の指示がなされた場合はステップ S 1 1 5にて終了信号を生成して、 そ の終了信号を要求送信許可受信部 1 3 4を介して管理センタ 1 0 3に送信する。 管理センタ 1 0 3は、 送信装置 1に対して送信終了を行わせ、 これにより処理が 終了する。
次に、 図 2 4には、 図 2 1及び図 1 9の管理センタ 1 0 3における処理の流れ を示す。 なお、 この図 2 4では、 適宜図 1 9の管理セン夕の内部構成を用いて説 明する。
図 2 4において、 先ず、 管理システム 1 0 5は、 ステヅプ S 1 2 1として、 受 信装置 1からアルゴリズムの要求信号 (アルゴリズムの要求信号) の受信待ちと なっており、 当該要求信号を受信すると、 ステップ S 1 2 2の処理として、 認証 用メモリ 1 0 4に保持されている情報を用いて、 その受信装置 2の要求に対する 正当性の判定を行う。 このステヅプ S 1 2 2の判定処理において、 不正であると 判定された場合、 管理システム 1 0 5は、 拒絶信号として不許可信号を受信装置 2に送信した後、 処理を終了する。
一方、 ステップ S 1 2 2の判定処理において正当であると判定された場合、 管 理システム 1 0 5は、 送信装置 1に対してその要求信号 (要求されたァルゴリズ ムを表す信号) を送信し、 また、 その要求されたアルゴリズムと受信装置 2を表 す情報を料金計算システム 1 0 6に送る。
料金計算システム 1 0 6は、 上記管理システム 1 0 5から上記要求されたアル ゴリズムと受信装置 2を表す情報を受け取ると、 ステヅプ S 1 2 5の処理として、 当該情報と料金計算用テーブル 1 0 7の利用料金計算表とを用いて、 利用料金の 計算を行う。
その後、 管理システム 1 0 5は、 受信装置 2から終了信号が送信されてきたか 否か判定し、 送信されてこないときは処理を継続するためにステヅプ S 1 2 1の 処理に戻る。
ステップ S 1 2 6の判定処理において、 送信終了と判定された時、 料金計算シ ステム 1 0 6は、 ステップ S 1 2 7の処理として、 これまでの各処理毎の料金を 合算し、 また、 ステップ S 1 2 8としてその計算により得られた利用料金の請求 を受信装置 2のユーザに対して行う。 ここで、 上述したように、 料金の請求をォ ンライン或いはオフラインで行うのではなく、 制御部 1 3 3の制御のもと、 ユー ザの口座番号、 管理セン夕 1 0 3の口座番号、 及び金額情報を外部の決済センタ に送信するように構成してもよい。
その後、 管理システム 1 0 5は、 終了信号を送信装置 1に対して送信し、 図 2 4の処理を終了する。 なお、 ステヅプ S 1 2 7とステップ S 1 2 8は、 ステヅプ S 1 2 9の処理後に行っても良い。
次に、 前記アルゴリズムの自動選択 (最適化) のためのアルゴリズムによる処 理の流れについて、 図 2 5を参照しながら説明する。
ここで、 アルゴリズムの最適化は何を基準にして行うかによりその最適化の手 法は異なる。 上述の説明では、 画像圧縮のためのアルゴリズムの選択時に、 画質 を基準としてユーザが処理 (アルゴリズム) を選択する例を挙げたが、 ここでは 自動選択 (最適化) の基準として利用料の安さを例に挙げる。 すなわち、 当該白 動選択 (最適化) アルゴリズムでは、 先ず、 利用料の最も安いアルゴリズムを選 択するが、 このとき、 画質が限界以上に悪くなる場合にはそれより高品質な画質 を得られるようなァルゴリズムを用いるように自動的にァルゴリズムを変更する ような例に挙げて説明する。 なお、 本実施例では、 画像圧縮のためのァルゴリズ ムを自動選択する例を述べているが、 本発明は画像圧縮のためのアルゴリズムの 自動選択に限定されるものではなく、 どのようなアルゴリズムの自動選択 (最適 化) であっても適用可能であり、 最適化の基準も利用料に限定ざれるものではな く、 品質や処理時間、 デ一夕転送時間等であってもよい。
この図 2 5において、 例えば画像圧縮処理の最適化のためのアルゴリズムの選 択指示が、 上記受信装置 2よりなされたとき、 図 2 1の送信装置 1の制御部 1 2 8は、 ステップ S 1 7 1として、 前記サブサンプル圧縮、 オブジェクト符号圧縮、 クラス分類適応予測圧縮、 階層符号化等の各アルゴリズムのうち、 最も利用料の 安いアルゴリズムを選択する。 これにより、 画像圧縮処理部 1 2 1では、 上記最 も利用料の安いアルゴリズムに対応する処理部による画像圧縮処理がなされる。 ここで、 画像圧縮アルゴリズムの高度さに応じて利用料が決定されているとした とき、 すなわち例えば、 最も簡単な圧縮処理であるサブサンプル圧縮の利用料が 1回につき 1 0 0円、 次に高度な処理であるオブジェクト符号圧縮の利用料が 1 回につき 2 0 0円、 さらに高度な処理である階層符号化の利用料が 1回につき 3 0 0円、 最も高度な処理であるクラス分類適応予測圧縮の利用料が 1回につき 4 0 0円であったとすると、 最も利用料の安いサブサンプル圧縮が選択されること になる。
次に、 画像圧縮処理部 1 2 1では、 ステップ S 1 7 2の処理として、 上記選択 された画像圧縮のためのアルゴリズムを使用して圧縮処理が行われた後のデータ を復号 (ローカルデコーダ) して得られる画像と、 元の画像との差分を計算し、 その差分値を制御部 1 2 8に返す。
上記差分値を受け取った制御部 1 2 8は、 ステップ S 1 7 4の処理として、 当 該差分値が所定の閾値以下か否かの判定を行う。
ここで、 上記差分値が所定の閾値以下でないと言うことは、 上記選択された画 像圧縮のためのアルゴリズムを使用して圧縮処理により得られる画像の画質が、 限界以上に悪くなつていることを表している。 したがって、 この時の制御部 1 2 8は、 より高品質な画質を得られるような画像圧縮ァルゴリズムを用いるように、 上記選択されるアルゴリズムの変更を行う。 先の選択時に、 上記サブサンプル圧 縮が選択されていた場合には、 それよりも高度なアルゴリズムである上記ォブジ ェクト符号圧縮のアルゴリズムが選択される。 その後、 画像圧縮処理部 1 2 1で は、 当該新たに選択されたアルゴリズムを使用して圧縮処理が行われた後、 再度 差分値が計算され、 さらに、 制御部 1 2 8では、 その差分値が所定の閾値以下か 否かの判定を行う。 この一連の処理は、 上記差分値が所定の閾値以下になるまで 繰り返される。
上記ステップ S 1 7 4において上記差分値が所定の閾値以下になった場合、 ス テヅプ S 1 7 5の処理として、 画像圧縮処理部 1 2 1からは、 その時点で選択さ れている画像圧縮アルゴリズムにより圧縮処理された画像データが処理結果とし て、 画像デ一夕送信部 1 2 7を介して出力される。
ここで、 各画像圧縮アルゴリズムにおける処理パラメ一夕はデフオルト値を採 用することにする。 すなわち、 処理パラメ一夕 (量子化係数、 量子化ビヅト、 サ ンプリング周波数、 ビヅ トレート) をデフォルト値とすると各アルゴリズムにお ける自然画像の圧縮率が 1 / 2程度となるように設定されていることにする。 その後、 制御部 1 2 8は、 受信装置 2側からの終了要求がなされたか否かをス テヅプ S 1 7 6により判定し、 終了要求がなされていないときはステップ S 1 7 1の処理に戻り、 終了要求がなされたときには当該処理を終了する。 以上が、 ァ ルゴリズム自動選択 (最適化) のためのアルゴリズムが選択指示されたときの動 作である。
この場合、 受信装置 2に対しては、 上記差分値が所定の閾値以下になった時点 で選択されている画像圧縮アルゴリズムに対応する利用料金に、 上記最適化のた めのアルゴリズムの利用料金が加算された額が課金されることになる。
なお、 上記画質を決定する所定の閾値の決め方としては、 複数考えられる。 例 えば、 予め決定しておく方法や、 処理した画像をユーザに提示してユーザが選択 する手法などが考えられる。
また、 この図 2 5の説明では、 一旦画像圧縮を行って得られる画質を検討 (性 能の比較) を行って最終的に選択される画像圧縮アルゴリズムを最適なものとし て決定する手法を採用しているが、 例えば、 先に画像の特徴量を検出し、 その特 徴量に基づいて最適なアルゴリズムを判定することにしてもよい。 例えば、 画像 中の輝度や動き、 色などの値の変化の大きい画像 (アクティビティが高い画像) では、 単純な圧縮アルゴリズムを用いると十分な画質が得られないことが予想さ れるので、 高度な圧縮アルゴリズムを自動選択するとようなことが考えられる。 また、 画像の特徴として、 その画像が C G (コンピュータグラフィック) 、 ゲー ム等の画像であるかなどの検出を行うことで、 それら画像に適した圧縮アルゴリ ズムを自動選択するようなことも考えられる。 このようなことを行った場合は、 上述した利用料の安いアルゴリズムから順番に選択していくような手法と比べて、 繰り返し圧縮を試さないので、 処理の高速化が可能となり、 画像特性と圧縮アル ゴリズムの関連付けを予め設定しておけば、 より最適な圧縮アルゴリズムを高速 に選択可能となる。
次に、 前記画像圧縮のためのアルゴリズムのうち、 サブサンプルについて説明 する。 当該サブサンプルとは、 例えば画像を構成する各画素の例えば 2画素のう ち 1画素を間引くような処理である。 もちろん、 2画素につき 1画素間引く例だ けでなく、 3画素につき 1画素、 4画素につき 1画素などの間引きも含まれる。 次に、 前記画像圧縮のためのアルゴリズムのうち、 オブジェクト符号について 説明する。
オブジェクト符号とは、 画像中で時間方向にあまり変化 (変形) しないものを オブジェク ト画像として作成 (抽出) し、 当該あまり変化しない部分 (オブジェ クト画像) の情報を一旦送信した後は送信せず、 その後の送信ではオブジェクト 画像の位置情報 (及び動き情報) を送信するようにすることで、 情報の圧縮を行 う圧縮手法である。 なお、 このオブジェクトは、 前述の図 2等にて説明したォブ ジヱクトと略々同じものと考えて良い。
例えば 動画を送信するような場合、 オブジェクト画像自体が全く変化してい ないものであれば、 そのオブジェクトの画像データを送信することは伝送帯域の 無駄な使用となる。 したがってこの場合、 そのオブジェクトの画像データを一旦 送信した後は、 再度送信しないようにすることで、 情報量の大幅な削減が可能と なる。
具体例として図 2 6を挙げて説明すると、 図 2 6 Aに示すような 3 0フレーム /秒の動画像があり、 当該動画像の 1 フレーム内には、 動かない空と山からなる 背景 1 5 1と、 動いている雲 1 5 2及び自動車 1 5 3があるとする。 この 1 フレ —ムの画像からは、 図 2 6 Bに示すように、 背景 1 5 1のオブジェクト画像と、 自動車 1 5 3のォブジェクト画像と、 雲 1 5 2の.オブジェクト画像とが抽出され ることになる。 ここでオブジェクト符号では、 図 2 6 Aの各フレーム間における プロヅクマッチングなどにより、 それぞれのオブジェクトについての動きの方向 及び動き量を表す動きベクトルが求められる。 図 2 6 Bの例では、 動かない背景 1 5 1の動きべクトルは (x, y ) = (◦, 0 ) となり、 自動車 1 5 3は X方向 に一 2だけ動き、 y方向には変化しないことを示す動きベクトル (一 2, 0 ) と なり、 雲 1 5 2は X方向に 3、 y方向に 2だけ動くことを示す動きべクトル (3 : 2 ) となっているとする。 オブジェクト符号では、 上記背景 1 5 1、 自動車 1 5 3、 雲 1 5 2の各ォブジヱクトについて形状の情報を取得し、 その形状の情報を 送信した後は、 各オブジェクトの初期の位置情報とフレーム毎の上記動きべクト ルの情報を送信するか、 フレーム毎に位置情報を送信することで、 伝送デ一夕量 を大幅に削減可能となっている。 一方、 受信側では、 先に取得したオブジェクト の形状情報とフレーム毎に受け取る位置情報、 或いは動きべクトルとに基づいて 画像を再構成する。
図 2 7には、 上記オブジェクト符号を行う図 2 1のオブジェクト符号圧縮処理 部 1 2 3の処理の流れを示す。
この図 2 7において、 先ず制御部 1 2 8によりオブジェクト符号圧縮処理部 1 2 3での処理が選択されると、 当該オブジェクト符号圧縮処理部 1 2 3では、 ス テヅプ S 1 3 1として初期処理を行う。 当該初期処理では、 前記ビデオカメラ部 6から初期画像データを取得し、 その画像に存在しているォブジヱクトをォプジ ヱクト画像として抽出し、 今後の処理で用いるデータ (形状情報等) をオブジェ クトテーブルに取得、 保持する。
上記ステップ S 1 3 1の初期処理後、 オブジェクト符号圧縮処理部 1 2 3では、 ステップ S 1 3 2として、 上記ビデオカメラ部 6より、 順次、 処理する画像デ一 夕を取得し、 さらに単位時間前 (例えば 1 フレーム前) の画像などの先にォブジ ヱクトテーブルに保持しておいたォブジェクト画像に関する情報を取得する。 次に、 オブジェクト符号圧縮処理部 1 2 3では、 ステップ S 1 3 4として、 現 在の画像を、 上記オブジェクトテーブルに保持されるオブジェクト画像に対応す るオブジェクト画像に分割する。 この場合の処理は、 例えばオブジェクトテープ ルに保持されるオブジェクト画像と同一の色の部分を同一オブジェクト画像と設 定したり、 前述したクリックデータに基づいたオブジェクト抽出等の手法を使用 する。
次に、 オブジェクト符号圧縮処理部 1 2 3は、 ステヅプ S 1 3 5の処理として、 オブジェク トテ一ブルに保持されるォブジェクト画像、 現在フレームのオブジェ クト画像間でのオブジェクト画像毎の動きの情報 (動きぺクトル) を計算抽出し、 さらに、 ステップ S 1 3 6としてその動きべクトルを初期位置情報と共に受信装 置 2に向けて送信する。 前述の例では、 ブロックマヅチングにより動きベクトル を求める例を挙げて説明したが、 この処理ではステップ S 1 3 4で既にオブジェ クト画像が抽出されォブジヱクト画像に保持されているので、 ォブジヱクト画像 毎のマッチングにより動きを正確に求めることができる。
このとき、 オブジェクト符号圧縮処理部 1 2 3は、 ステップ S 1 3 7として、 既に抽出されてその情報がオブジェクトテーブルに保持されているオブジェクト 画像以外の、 新規のオブジェクト画像が出現していないかを調べる。 このステヅ プ S 1 3 7にて新規オブジェクト画像が検出されないときは、 ステヅプ S 1 4 0 の処理に進み、 一方、 新規ォブジヱクト画像を検出した場合は、 ステップ S 1 3 8としてその新規のオブジェクト画像についての情報をォブジェクトテーブルに 追加し、 さらにステップ S 1 3 9として、 当該新規のオブジェクト画像に関する 情報 (オブジェクト画像データ、 初期位置情報、 動きベクトル情報等) を受信装 置 2に向けて送信する。 このステップ S 1 3 9の処理後はステヅプ S 1 4 0の処 理に進む。
ステップ S 1 4 0の処理に進むと、 オブジェクト符号圧縮処理部 1 2 3は、 次 の処理のために、 オブジェクトテーブルに現フレームの各ォブジェクト画像及び その位置情報、 或いは動きベクトル情報を記憶し、 その後、 ステップ S 1 4 1に て、 受信装置 2側からの終了要求がなされたか否かの判定を行い、 終了要求がな されていないときはステップ S 132の処理に戻り、 終了要求がなされたときに は当該処理を終了する。 以上が、 オブジェクト符号圧縮処理の流れである。
次に、 図 2 1に示すクラス分類適応予測圧縮処理部 1 2.4の詳細な構成及びそ の動作について以下に説明する。
先ず、 時空間モデルで画像を記述することについて、 図 28を参照して説明す る。
図 28において、 図中 T l、 Τ 2は、 時間的に連続する 2フレームを示し、 Τ 1が過去のフレーム、 Τ 2が現在のフレームである。 これらのフレーム中で、 予 測の推定値の生成及びクラス分類のために使用する画素が図に示されている。 図 中 Xで示す現在フレーム内の未来の画素を、 図 28に示す画素の値 xiと係数 wi (i= l、 2、 …, n) の n夕ヅプの線形 1次結合モデルで表現する。 この係数 が予測係数である。 そして、 以下により、 詳細に説明するように画素の値 xiと係 数 wiの線形 1次結合で表現される未来の画素の推定値 yの真値に対する誤差の二 乗が最小二乗法で最小となるように、 1フレーム毎或いはクラス毎に 1組の係数 が確定される。
図 28に示す時空間モデルの例では、 n= 1 6である。 現在フレーム T 2の未 来の画素の予測値 yは、 1 6タップの入力画素の線形 1次結合 wlxl + w2x2 + 〜 + wl6xl6によって表される。 この線形 1次結合モデルにおける係数 wiについ ては、 実際の値と線形 1次結合で表される推定値との残差が最小になるものが求 められる。
この未定係数 wiを決定するために、 入力画像を空間方向 (水平方向及び垂直方 向) に 1画素ずつずらした時の図 28に示す各画素の値 xi ( i = 1 , 2, …, n) と予測対象画素の実際の値 yj (j = l, 2, …, m) をそれそれ代入した線 形 1次結合の式を作成する。 例えば 1フレームに対して 1組の係数を求める時に は、 入力画像を 1画素ずつシフトすることによって、 非常に多くの式、 すなわち、 1フレームの画素数 ( = m) の連立方程式 (観測方程式と称する) が作成される。 1 6個の係数を決定するためには、 最低で (m= l 6) の連立方程式が必要であ る。 方程式の個数 mは、 精度の問題と処理時間との兼ね合いで適宜選定できる。 観測方程式は、 式 1で表される。
X W = Y · · · 1
なお、 X、 W、 Yは、 それそれ下記式 2のような行列である
Figure imgf000058_0003
ここで、 係数 wとして、 実際の値との誤差を最小にするものを最小二乗法によ り求める。 このために、 観測方程式の右辺に残差行列 Eを加えた下記式 3の残差 方程式を作成する。 すなわち、 最小二乗法において、 残差方程式における残差行 列 Eの要素の二乗、 すなわち二乗誤差が最小になる係数行列 Wを求める。
Figure imgf000058_0001
次に、 残差方程式 3から係数行列 Wの各要素 w iの最確値を見いだすための条件 は、 プロック内の画素に対応する m個の残差をそれそれ二乗してその総和を最小 にする条件を満足させればよい。 この条件は、 下記の式 4により表される。
Figure imgf000058_0002
ei— - + — ~ 二 0 (ι = 1,2, ..』) 4 次に n個の条件を入れてこれを満足する係数行列 Wの要素である未定係数 w l, w2, …, wnを出せばよい。 従って、 残差方程式 3より、 式 5となる。 βϊ
= Xil , = xa, ... in = 1, 2,,.·.《) 5 式 4の条件を i = 2 , …, nについて立てれば、 それそれ式 6が得られる
Figure imgf000059_0001
二 0, eixi2 = 0,…, βίχήι 0
ί·=1 i=\ 式 3と式 6から、 下記式 7の正規方程式が得られる
Figure imgf000059_0002
Figure imgf000059_0003
V 正規方程式 7は、 丁度、 未知数の数が n個だけある連立方程式である。 これに より、 最確値たる各未定係数 w iを求めることができる。 正確には、 式 7における、 w iにかかるマトリクスが正則であれば、 解くことができる。 実際には、 Gauss-J ordanの消去法 (別名、 掃き出し法) を用いて未定係数 w iを求めている。 このよ うにして、 未来の画素を表すための係数が 1フレームで 1組確定する。 多数フレ ームの入力画像を使用して上述と同様の学習を行う時には、 各フレームで確定し た係数の平均値、 あるいは最大出現頻度の係数が、 後述する係数メモリ 2 0 5に 格納される。
この例では、 学習によって決定された係数を予測係数として使用し、 予測符号 化を行うようにしている。 この場合、 推定精度を向上させるために、 入力画像の クラス分類 (クラス夕リング) を行う。 図 2 8において、 図中〇と©で示す画素 が線形 1次結合モデルに使用したものを示し、 図中◎で示す画素がクラス分類に 使用した画素を示す。 つまり、 1 6画素中の 4画素がクラス分類にも使用される。 ここで、 上記 4画素のそれそれが 8ビッ トであると、 4画素の値の組合せが非 常に多くなり、 現実的なクラス分類とは言えない。 そこで、 後述するように、 こ の 4画素のそれそれのビット数を符号化により圧縮している。 より具体的には、 A D R C (ダイナミヅクレンジに適応した符号化) によって、 各画素を 1ビット のコードに圧縮する。 その結果、 2 4= 1 6通りのクラスを取り扱えば良いことに なる。 なお、 クラスを指示するコードをインデヅクスと称する。 A D R Cに限ら ず、 ベクトル量子化によって、 画素のビット数を減少させることもできる。 さら に、 各画素の最上位ビヅ トを集めてインデヅクスとしても良い。 このように予測 画素の近傍の 4画素をそれそれ 1 ビヅトに正規化した 4 ビヅトのコードによって クラス分類することは、 画像の時空間における変化の概略のパターン形状に応じ てクラス分類を行ったことを意味する。
図 2 9は、 クラス分類における学習のための構成の一例を示す。 図 2 9におい て、 入力端子 2 0 1に入力される入力画像デ一夕としては、 異なる絵柄の多数の 静止画像データが好ましい。 入力画像データが時系列変換回路 2 0 2及び最小二 乗法の演算回路 2 0 3に供給される。 時系列変換回路 2 0 2は、 例えばラスター 走査の入力画像デ一夕中の線形 1次結合モデル及びクラス分類に使用される複数 · の画素データを同時化する。
この時系列変換回路 2 0 2の出力データが演算回路 2 0 3及びクラス分類回路 2 0 4に供給される。 クラス分類回路 2 0 4は、 上述のように、 画像の 3次元の 変化に対応するィンデヅクスを発生する。 このィンデヅクスが演算回路 2 0 3に 供給される。 演箅回路 2 0 3は、 図 2 8に示される時空間モデルに関して、 上述 した最小二乗法のアルゴリズムによって、 インデックスで指示されるクラス毎に 1組の係数 w iを決定する。 この係数が係数メモリ 2 0 5に格納される。
図 3 0は、 本発明に係る測符号化のエンコーダの一例の構成を示す。
図 3 0において、 係数メモリ 2 1 5には、 上述の学習により獲得された係数が クラス毎に格納されている。 入力端子 2 1 1からの入力画像データが時系列変換 回路 2 1 2に供給され、 その出力デ一夕がクラス分類回路 2 1 4及び推定値生成 回路 2 1 6に供給される。 時系列変換回路 2 1 2は、 例えばラスター走査の順序 に従って入力された画素データを図 2 8に示すように、 過去において順次伝送さ れてくる画素と未来に伝送されてくる画素をひとまとめにして同時に出力する。 クラス分類回路 2 1 4には、 クラス分類に使用する 4画素のデータが供給される。 クラス分類回路 2 1 4からのィンデヅクスが係数メモリ 2 1 5に供給され、 クラ スに対応する 1組の係数がメモリ 2 1 5から読み出される。 この読み出し係数が推定値生成回路 2 1 6に供給され、 時系列変換回路 2 1 2 'からの画素データを使用して、 推定値が生成される。 この推定値が減算回路 2 1 8に供給される。 減算回路 2 1 8の他の入力として、 遅延回路 2 1 7を介された 入力画像データが供給される。 時系列変換回路 2 1 2、 クラス分類回路 2 1 4、 係数メモリ 2 1 5、 推定値生成回路 2 1 6が口一カルデコーダを構成する。 減算 回路 2 1 8によって、 真値 (実デ一夕) と推定値との差分値が生成される。 この差分値が圧縮符号化のためのエンコーダ 2 1 9により符号化され、 符号化 出力 (コード) が出力端子 2 2 0に取り出される。 圧縮符号化としては、 一例と して、 適応量子化によってビット数を削減した後、 生起確率に基づいて予め求め られたハフマン符号によってエントロピー符号化を行う。 さらに、 エンコーダ 2 1 9に対してリフレツシュ用に画素値そのものが供給され、 所定の伝送デ一夕毎 に画素値が挿入される。 圧縮符号化としては、 他のものを採用できる。 例えば差 分値をブロック化した後、 D C T変換のような直交変換を行い、 そしてェントロ ピー符号化を行っても良い。 この圧縮符号化出力が伝送される。
図 3 0の例では、 前もってなされる学習により獲得された汎用性のある係数を 使用している。 図 3 1に示すエンコーダは、 係数を入力画像と関連して更新する ことを可能とした構成である。 すなわち、 学習のためのものと同様の最小二乗法 の演算回路 2 1 3を設け、 演算回路 2 1 3からの係数で係数メモリ 2 1 5を更新 することを可能としている。 より具体的には、 クラス分類回路 2 1 4からのイン デックスが演算回路 2 1 3及び係数メモリ 2 1 5に供給され、 入力画像データが 演算回路 2 1 3に供給され、 演算回路 2 1 3からの確定係数が係数メモリ 2 1 5 に対して供給されている。 入力画像の 1フレーム毎に限らず、 かなり多くのフレ ームを学習した結果に基づいて係数を更新する構成としても良い。 また、 図 3 1 の係数メモリに予め学習で決定された係数を格納し、 これを入力画像によって変 更するようにしてもよい。 図 3 1の例では、 係数メモリ 2 1 5の内容が変化する ので、 出力端子 2 2 1に取り出された係数データをコードと共に伝送する必要が ある。 図 3 1の構成において、 最小二乗法の演算回路 2 1 3を選択的に動作させ るようにしてもよい。
次に、 学習時及びエンコーダにおいて使用される各回路のより詳細な構成につ いて説明する。
図 32は、 クラス分類回路 2 04、 2 1 4の一例である。 入力画像データ (4 画素のデ一夕) が 1ビヅ ト ADR C回路 2 27に順次供給される。 ADRC回路 2 2 7では、 4画案の値の最大値及び最小値が検出され、 最大値と最小値の差で あるダイナミヅクレンジ DRが検出される。 このダイナミックレンジ DRによつ て各画素の値が割算される。 その商が 0. 5と比較され、 商が 0. 5以上の時 に" 1 "、 0. 5より小の時に" 0 " のコードが形成される。
ADR C回路 2 2 7によって、 各画素の値が 1ビット (" 0" 又は" 1 " ) に 圧縮される。 この ADR C回路 2 27の出力がシフトレジス夕 22 8によって直 列並列変換される。 シフトレジスタ 2 2 8からの各 1ビットの L l、 L 2、 L 3、 L 4がレジス夕 2 2 9に格納される。 この 4ビッ ト (L l, L 2 , L 3, L 4 ) がインデックスである。
ここで、 A D R C回路 2 27は、 量子化ビヅ ト数が 1ビヅ トとしたが、 2ビヅ トなどの多数ビットでもよい。 また、 4画素などの画素プロック毎に可変ビット にしてもよい。
なお、 以上のようにしてクラス分類適応予測の符号化がなされたデ一夕 (受信 コード) を受信して復号する受信装置 2側の構成を図 3 3に示す。
この図 3 3において、 入力端子 2 1に入力された受信コードが圧縮符号化の デコーダ 243に供給され、 入力端子 242からの受信係数が係数メモリ 244 に供給される。 係数メモリ 244は、 クラス分類回路 245からのィンデヅクス に応答してクラスと対応する係数を出力する。 学習によって得られた係数を変更 しない時には、 係数メモリ 244の内容が変更されない。 係数メモリ 244の内 容は、 送信側のものと同一とされることが必要である。 係数が推定値生成回路 2 46に供給される。
デコーダ 243からは、 復号差分データが得られ、 これが加算器 247に供給 される。 また、 リフレッシュ用に挿入されている画素値は、 推定値生成回路 24 6に供給され、 推定値の生成に用いられる。 加算器 247は、 復号差分値と推定 値生成回路 246からの推定値とを加算し、 復号値を発生する。 この復号値が時 系列変換回路 248及び 249に供給される。 時系列変換回路 248は、 推定に 必要な複数の復号画素データを纏める。 時系列変換回路 2 4 9は、 復号信号を表 示部 1 3 7に表示するように変換し、 その信号が出力端子 2 5 0から表示部 1 3 7に送られる。
時系列変換回路 2 4 8からの復号画素データが推定値生成回路 2 4 6に供給さ れ、 また、 クラス分類に必要な復号画素データがクラス分類回路 2 4 5に供給さ れる。 クラス分類回路 2 4 5は、 上述したように、 1ビット A D R C回路の構成 であり、 そこからのインデヅクスが係数メモリ 2 4 4に供給される。 かかる図 3 3に示すデコーダの各回路の構成は、 エンコーダについて説明したものと同様で あり、 その説明は省略する。
次に、 前記消費電力の自動制御のアルゴリズムについて説明する。
ここで、 消費電力制御では、 各処理を基本的な命令に分割し、 その命令がどの くらい電力量を消費するかを予め設定しておく。 この命令毎の電力量の値は、 ハ 一ドウエアに依存することになると考えられる。 この命令毎の電力量の値を用い ることで、 使用電力量の削減を図ることが可能となり、 本実施の形態では、 この 消費電力の自動制御のアルゴリズムの利用に閧して課金を行う。
また、 当該消費電力の自動制御はできるだけ細かく行うことが必要である。 望 ましくは、 回路上での 1プロセス ( 1クロック) 毎に行うのが理想的である。 こ の概念図を図 3 4に示す。
この図 3 4において、 縦軸は利用電力量、 横軸は 1クロヅク ( 1プロセス) を 示している。 この図 3 4のように、 非常に細かいプロセス毎に必要最小限の電力 量は幾らになるかを調べておき、 これから行うであろうプロセスに必要な電力を 供給するように制御する。 すなわち、 それほど電力が必要でない処理を実行して いるときには電力量を減らすようにし、 一方、 電力が必要な処理を実行している ときには電力量を増やすように制御する。
図 3 5には、 当該消費電力自動制御アルゴリズムにおいて、 処理手法 (他の各 種のプロセス) に応じて電力制御を実行するか否かを判断する際の流れを示す。 この図 3 5において、 前記図 2 1の消費電力制御部 1 3 1は、 消費電力自動制 御アルゴリズムに基づき、 先ず、 ステップ S 1 5 1の処理として、 使用される処 理手法が何れのプロセスであるかを判定し、 消費電力自動制御アルゴリズムを使 用するものについては、 ステップ S 1 5 2として電力制御機能を実行するように 設定し、 一方、 使用しないものについては、 ステヅプ S 1 5 3として電力制御機 能を実行しないように設定する。
その後、 消費電力制御部 1 3 1は、 終了判定を行い、 終了しないときはステツ プ S 1 5 1に戻り、 終了するとき当該電力自動制御アルゴリズムを終了する。 図 3 6には、 図 3 5のステヅプ S 1 5 2において電力制御機能を実行するよう に消費電力制御部 1 3 1が設定されたときの場合の処理の流れを示す。
この図 3 6において、 消費電力制御部 1 3 1では、 ステップ S 1 6 1として、 次に行うプロセスをモニターしており、 さらにステップ S 1 6 2として、 そのプ 口セスに必要な電力量を計算する (ここで参照するテーブルなどによって、 予め 設定してある電力量の値を供給する必要がある) 。
次に、 消費電力制御部 1 3 1は、 ステップ S 1 6 3として、 図示しない電源部 から、 上記計算値に基づいた電力を装置内部の各回路に供給する。 これにより、 受信装置 2では、 ステヅプ S 1 6 4として、 装置内部の各回路が上述のプロセス を実際に実行する。 或いは、 消費電力制御部 1 3 1が、 制御部 1 3 3等に組み込 まれている場合は、 1プロセス毎の命令の種類に応じて制御部 1 3 3の一部の回 路を選択的にスリーブ状態にするなどして消費電力するように構成してもよい。 その後、 消費電力制御部 1 3 1は、 終了判定を行い、 終了しないときはステツ プ S 1 6 1に戻り、 終了するとき当該電力自動制御アルゴリズムを終了する。 なお、 この場合にも、 処理の高度さのレベルを用いて課金量を変えることもで きる。 例えば、 モニタする時間間隔に応じて課金量を変えたり、 電力量制御の最 適化レベルに応じて変えるなどである。
次に、 上述した一連の処理は、 ハ一ドウヱァにより行うこともできるし、 ソフ トウエアにより行うこともできる。 一連の処理をソフトウエアによって行う場合 には、 そのソフトウェアを構成するプログラムが、 専用のハードウェアとしての 送信装置 1や受信装置 2に組み込まれているコンピュータや、 汎用のコンビユー 夕等にィンストールされる。
上述した一連の処理を実行するプログラムをコンピュータにィンストールし、 コンピュータによって実行可能な状態とするために用いられる、 そのプログラム が記録されている記録媒体について説明する。
すなわち、 上述した処理を実行するプログラムは、 コンピュータに内蔵されて いる記録媒体としてのハードディスクや半導体メモリに予め記録しておくことが できる。 また、 当該プログラムは、 フロッピィディスク、 CD— ROM (Compac t Disc Read Only Memory) 、 MO (Magneto Optical) ディスク、 DVD (Digi tal Versatile Disc) 、 磁気ディスク、 半導体メモリなどの記録媒体に、 一時的 あるいは永続的に格納 (記録) しておくことができる。
なお、 このプログラムは、 上述したような記録媒体からコンビュ一夕にインス トールする他、 ダウンロードサイ トから、 ディジタル衛星放送用の人工衛星を介 して、 コンピュータに無線で転送したり、 LAN (Local Area Network) 、 イン ターネットといったネヅトヮ一クを介して、 コンピュータに有線で転送し、 当該 コンピュータにおいて、 内蔵するハードディスクなどにインストールするように することができる。
また、 本発明の説明において、 各種の処理を行うためのプログラムを記述する ステヅプは、 必ずしもフローチャートとして記載された順序に沿って時系列に処 理する必要はなく、 並列的あるいは個別に実行される処理 (例えば、 並列処理あ るいはオブジェクトによる処理) も含むものである。
次に、 図 37は、 上述したコンピュータの構成例を示している。
この図 37に示すコンピュータは、 CPU (Central Processing Unit) 142 を内蔵している。 CPU 142には、 バス 14 1を介して、 入出力ィン夕フエ一 ス 145が接続されており、 CPU 142は、 入出力ィン夕フェース 145を介 して、 ユーザによって、 キーボードやマウス等で構成される入力部 147が操作 されることにより指令が入力されると、 それにしたがって、 前記半導体メモリに 対応する ROM (Read Only Memory) 143に格納されているプログラムを実行 する。 あるいは、 また、 CPU 142は、 ハ一ドディスク 140に格納されてい るプログラム、 前記衛星若しくはネヅトワークから転送され、 通信部 148で受 信されてハードディスク 140にインストールされたプログラム、 またはドライ ブ 149に装着されたフロヅピディスク、 CD_ROM、 M〇ディスク、 DVD、 若しくは磁気ディスクから読み出されてハードディスク 140にインストールさ れたプログラムを、 R A M (Random Access Memory) 1 4 4にロードして実行す る。 そして、 C P U 1 4 2は、 その処理結果を、 例えば、 入出力ィン夕フェース 1 4 5を介して、 L C D (Liquid Crystal Display) 等で構成される表示部 1 4 6に、 必要に応じて出力する。
なお、 本発明において、 画像の時間解像度及び空間解像度の変更は、 例えば、 送信装置 1において、 画像を離散コサイン変換するようにして、 どの次数までの 係数を送信するかや、 あるいは、 量子化を行うようにして、 その量子化ステップ を変更すること等によって行うことも可能である。
また、 通常の時間解像度で画像の表示を行う場合、 例えば、 オブジェクト画像 (興味対象領域) については、 送信装置 1において、 その輪郭をチェイン符号化 するとともに、 オブジェクト画像を構成する画素値 (色) の平均値を、 その代表 値として求め、 それらをハフマン符号化等のエントロピー符号化し、 受信装置 2 では、 オブジェクト画像の領域内を、 その代表値としての色で塗ったものを表示 するようにしてもよい。
上述の例では、 画像の空間解像度を向上させるようにしたが、 その逆に、 時間 解像度を向上させるようにすることも可能である。 また、 上述の例では、 画像の 一部の領域としての優先範囲内の空間解像度を向上させるようにしたが、 画像全 体の空間解像度を向上させるようにすることも可能である。
さらに、 上述の例では、 画像を、 背景とオブジェクトとに分離して処理を行う ようにしたが、 そのような分離を行わずに処理を行うことも可能である。
上述の例では、 アルゴリズムゃゾフトウヱァ層を選択して切替使用可能とした 例を挙げているが、 本発明で言うアルゴリズムやハードウェア制御プログラムに は、 ハードウエア自体を切り替える処理も含まれ、 その結果として本発明は、 ハ 一ドウエアの切り替えとそれに応じた課金処理も含まれることになる。
その他、 本発明は、 画像デ一夕だけでなく、 音声デ一夕にも適用可能である。 例えば、 音声信号に含まれるある基本周波数により、 音声の特徴量 (例えば、 ピ ツチ、 人の声の所望の部分、 音楽における各楽器など) を抽出するような場合に も本発明は適用可能である。
なお、 特開平 1 0— 1 6 4 5 5 2号公報には、 例えば視聴者の希望する画質に 対応した映像番組を供給可能にすると共に、 その希望した画質に応じた課金を行 うビデオオンデマンド送信装置及び端末装置が鬨示されている。 また、 この公報 記載の技術では、 供給された映像番組の画質を決定する処理手法として、 M P E G l、 M P E G 2のような同種のアルゴリズムを用いており、 それら M P E G 1、 M P E G 2の何れかを用いて圧縮された映像番組を供給したかによつて、 課金額 が変えられている。 すなわち、 この公報記載の技術は、 M P E G 1、 M P E G 2 のように基本的に同じアルゴリズムを用いて画質を選択するようにしている。 ま た、 この公報記載の技術では、 同種のアルゴリズムを用いることで、 受信側では M P E G 1、 M P E G 2の何れのアルゴリズムであっても映像番組を再現できる ようになされている。 言い換えれば、 受信側で対応可能なように、 送信側のアル ゴリズムを同種のアルゴリズムとしている。
これに対し、 本発明に係る送信システムでは、 前述したようにサブサンプル、 オブジェクト符号、 クラス分類適応予測符号、 などの全く異なるアルゴリズムを 選択する点が異なっており、 また、 これら全く異なるアルゴリズムの何れが選択 されたとしても、 受信側でデータの再生が可能となっている。 さらに、 本発明に 係る通信システムでは、 上記異なるアルゴリズムの選択だけでなく、 圧縮手法の 自動選択や着目点の予測を行うようなことも可能である。 また、 本発明に係るシ ステムでは、 電力使用量の自動選択制御のように異なるソフトウエア層を選択可 能となっている。 産業上の利用可能性 本発明においては、 複数の異なるソフトウエア層やアルゴリズムの中から利用 するソフトウヱァ層ゃアルゴリズムを指示し、 複数の異なるソフトウヱァ層ゃァ ルゴリズムの中から上記指示デ一夕に応じたソフトウェア層やアルゴリズムを選 択し、 当該選択したソフ トゥヱァ層やアルゴリズムを利用して処理を行い、 その 利用されたソフトウエア層やアルゴリズムに応じた利用料を支払う (課金を行 う) ことにより、 利用者の様々な要求に応じたデータ提供及び課金、 すなわち、 処理結果の性能 (画質、 音質など) 、 消費電力、 処理時間、 データ転送時間、 処 理結果などの利用者が受けるメリヅトに応じた課金が可能になると共に、 デ一夕 提供者にとってもより実情に即した満足できる課金を実現可能である。

Claims

請求の範囲
1 . 少なくともアプリケ一シヨン層とハードウエア制御層に対して所望のメソヅ ドを指示可能な指示手段と、
上記アプリケーシヨン層に関わるメソッドを選択的に実行可能な信号処理手段 と、
上記ハードウエア制御層に関わるメソッ ドを選択的に実行可能なハードウエア 制御手段と、
上記指示手段の指示に応じて、 上記信号処理手段或いは上記ハードウエア制御 手段が上記指示されたメソッドを実行するように制御する制御手段とを備えるデ —夕処理システム。
2 . 請求の範囲第 1項記載のデータ処理システムにおいて、
上記信号処理手段は、 複数のメソッ ドを記憶する記憶手段を備え、
上記制御手段は、 上記指示手段の指示に応じて一のメソッドを上記記憶手段か ら読み出すと共に実行するデータ処理システム。
3 . 請求の範囲第 1項記載のデータ処理システムにおいて、
上記システムは、
更に、 コンテンツデータを送信する送信手段と、 上記送信されたコンテンヅデ 一夕を受信する受信手段と、 上記受信されたコンテンヅデ一夕を出力する出力手 段とを備え、
上記信号処理手段は、 上記制御手段の制御に基づいて、 上記指示手段による指 示に応じて特定されたメソヅドを実行することにより、 入力されるコンテンツデ 一夕に対して信号処理し、 当該信号処理されたコンテンツデータを上記送信手段 に出力するデータ処理システム。
4 . 請求の範囲第 3項記載のデータ処理システムにおいて、
上記信号処理手段は、 上記入力されるコンテンツデータを圧縮処理する複数の 圧縮アルゴリズムに対応する複数のメソッドを有し、 上記制御手段による制御に 基づいてユーザ所望の圧縮アルゴリズムにより、 上記コンテンツデータを圧縮処 理するデータ処理システム。
5 . 請求の範囲第 4項記載のデータ処理システムにおいて、 上記信号処理手段は、 コンテンツデータとして入力される画像データから注目 画素に対応する注目画像プロックを抽出し、 上記注目画像プロツクに含まれる画 素の画素値より上記注目画素をクラス分類し、 予め上記クラス毎に演算され記憶 された複数の係数と、 上記注目画素に対応する推定用画像プロックに含まれる各 画素の画素値との線形一次結合により上記注目画素の推定画素値を出力し、 上記 注目画素の画素値から上記推定画素値を減算した値を符号化する圧縮アルゴリズ ムであるメソヅ ドを備えるデータ処理システム。
6 . 請求の範囲第 4項記載のデータ処理システムにおいて、
上記信号処理手段は、 コンテンツデータとして入力される動画像デ一夕の現フ レームを少なくとも一以上のオブジェクト画像に分割し、 上記分割されたォブジ ヱクト画像内のォブジェクトの動きべクトルを、 上記現フレームと過去フレーム とにより演算し、 上記演算された動きべクトルを出力する圧縮アルゴリズムであ るメソヅドを備えるデータ処理システム。
7 . 請求の範囲第 4項記載のデータ処理システムにおいて、
上記信号処理手段は、 上記指示手段により指示された金額情報に応じて、 上記 信号処理手段から自動的に上記複数の圧縮アルゴリズムに対応する複数のメソッ ドから一のメソヅドを選択するようなメソヅドを有するデータ処理システム。
8 . 請求の範囲第 4項記載のデータ処理システムにおいて、
上記一のメソッ ドを選択するメソッドは、 上記複数の圧縮アルゴリズムに対応す る複数のメソッ ドから最も利用料金の安価なメソッドを実行し、 上記安価なメソ ヅドで圧縮された上記コンテンツデータを復号した復号デ一夕と、 原コンテンツ データとの差分値を演算し、 上記差分値が閾値以下のときに上記圧縮されたコン テンヅデ一夕を出力するデ一夕処理システム。
9 . 請求の範囲第 4項記載のデータ処理システムにおいて、
上記信号処理手段は、 上記入力されるコンテンツデ一夕としての画像データの 特徴量に応じて、 上記信号処理手段から自動的に上記複数の圧縮ァルゴリズムに 対応する複数のメソヅ ドから一のメソッ ドを選択するようなメソッ ドを有するデ —夕処理システム。
1 0 . 請求の範囲第 9項記載のデータ処理システムにおいて、 上記信号処理手段が有する上記複数のメソッドから一のメソッドを選択するメ ソヅ ドは、 上記入力されるコンテンツデータとしての画像データの特徴量として アクティビティを検出し、 上記検出されるアクティビティが高いとき、 上記複数 のメソッドからより高度な圧縮アルゴリズムに対応するメソッドを選択するデー 夕処理システム。
1 1 . 請求の範囲第 4項記載のデ一夕処理システムにおいて、
上記出力手段は、 上記入力されるコンテンツデータとして画像データを表示し、 上記指示手段は、 ユーザ操作により上記表示される画像データの所定位置を指 示し、
上記信号処理手段は、 上記指示手段により指示される所定位置に対応する上記 画像データ内のォブジヱクト画像の特徴量に応じて、 上記ユーザの嗜好を推定し、 当該推定されたユーザの嗜好に基づいて上記画像データから上記ユーザが注目す るオブジェクト画像を自動的に抽出し、 当該抽出されたォブジェクト画像に対す る圧縮率を他のオブジェクト画像よりも低くなるように上記画像デ一夕を圧縮す るメソッドを有するデ一夕処理システム。
1 2 . 請求の範囲第 7項記載のデータ処理システムにおいて、
上記システムは、 更に、 上記信号処理手段或いは上記ハードウェア制御手段が 記憶する複数のメソッ ドの各々の利用料金情報を記憶する利用料金記憶手段と、 上記利用料金記憶手段に記憶された情報に基づいて、 上記指示手段に対して指示 するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情報を出力す る演算手段とを備えるデータ処理システム。
1 3 . 請求の範囲第 1 2項記載のデータ処理システムにおいて、
上記演算手段は、 上記利用料金記憶手段に記憶された情報に基づいて、 上記複 数のメソッ ドから一のメソッドを自動的に選択する自動選択メソッドの利用料金 と、 当該自動選択メソッドが選択した圧縮アルゴリズムに対応するメソッドの利 用料金との和により上記金額情報を演算する請求の範囲第 1 2項記載のデ一夕処 理システム。
1 4 . 請求の範囲第 1 2項記載のデータ処理システムにおいて、 上記演算手段は、 予め記憶される上記ユーザの口座番号、 上記メソッドによるサ 一ビスを提供する提供者の口座番号、 及び上記金額情報を、 外部の決済センタに 送信するデータ処理システム。
1 5 . 請求の範囲第 1項記載のデ一夕処理システムにおいて、
上記ハードウェア制御手段は、 1クロック毎に入力される命令に応じて、 少な くとも上記制御手段に供給する電力を制御するメソッドを有するデータ処理シス テム。
1 6 . 請求の範囲第 1 5項記載のデータ処理システムにおいて、
上記ハードゥヱァ制御手段と上記制御手段は、 1チップで構成され、 1クロッ ク毎に入力される命令に応じて、 上記ハードゥヱァ制御手段のメソッドが上記制 御手段の機能を選択的にスリープ状態にするデ一夕処理システム。
1 7 . 請求の範囲第 1 6項記載のデ一夕処理システムにおいて、
上記システムは、 更に、 ·
上記信号処理手段或いは上記ハードウエア制御手段が記憶する複数のメソッド の各々の利用料金情報を記録する利用料金記憶手段と、
上記利用料金記憶手段に記憶された情報に基づいて、 上記指示手段に対して指 示するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情報を出力 する演算手段とを備えるデータ処理システム。
1 8 . 請求の範囲第 1 7項記載のデータ処理システムにおいて、
上記演算手段は、 予め記憶される上記ユーザの口座番号、 上記メソッドによる サービスを提供する提供者の口座番号、 及び上記金額情報を、 外部の決済セン夕 に送信するデータ処理システム。
1 9 . 請求の範囲第 2項記載のデータ処理システムにおいて、
上記信号処理手段は、 上記制御手段とは離れた遠隔地に配され、 上記指示手段 により指示された一のメソッドが上記記憶手段から読み出され上記制御手段にダ ゥンロードされ、
上記制御手段は、 上記ダウンロードされたメソヅ ドを実行するデータ処理シス アム。
2 0 . 課金管理装置を備えた通信システムであり、 少なくとも:^プリケ一シヨン層とハードウエア制御層に対して所望のメソヅド を指示可能な指示手段と、
上気指示手段により指示されたメソツ ドを要求する要求信号を送信する要求信 号送信手段と、
上記要求信号に対する返信を受信する受信手段と、
上記アプリケーシヨン層に関わるメソッドを選択的に実行可能な信号処理手段 と、
上記ハードウエア制御層に関わるメソッドを選択的に実行可能なハードウエア 制御手段と、
上記指示手段の指示に応じて、 上記信号処理手段或いは上記ハードウエア制御 手段が上記指示されたメソッドを実行するように制御する制御手段とを備える処 理装置と、
上記要求信号を受信する要求信号受信手段と、
上記受信された要求信号に基づいて上記メソッドの利用可否を判断する判断手 段と、
上記判断結果を上記受信手段に送信する判断結果送信手段と、
上記信号処理手段或いは上記ハードウエア制御手段が記憶する複数のメソッ ド の各々の利用料金情報を記憶する利用料金記憶手段と、
上記利用料金記憶手段に記憶された情報に基づいて、 上記指示手段に対して指 示するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情報を出力 する演算手段と
を備える課金管理装置とを備える通信システム。
2 1 . 請求の範囲第 2 0項記載の通信システムにおいて、
上記信号処理手段は、 複数のメソッドを記憶する記憶手段を備え、
上記制御手段は、 上記指示手段の指示に応じて、 一のメソッドを上記記憶手段 から読み出すと共に実行する通信システム。
2 2 . 請求の範囲第 2 0項記載の通信システムにおいて、
上記受信手段は、 コンテンヅデ一夕を受信し、
更に、 上記処理装置は、 上記受信されたコンテンツデ一夕を出力する出力手段 とを備え、
上記信号処理手段は、 上記制御手段の制御に基づいて、 上記指示手段による指 示に応じて特定されたメソヅドを実行することにより入力されるコンテンツデ一 夕に対して信号処理し、 当該信号処理されたコンテンヅデ一夕を上記送信手段に 出力する通信システム。
2 3 . 請求の範囲第 2 2項記載の通信システムにおいて、
上記信号処理手段は、 上記入力されるコンテンツデータを圧縮処理する複数の 圧縮アルゴリズムに対応する複数のメソッドを有し、 上記制御手段による制御に 基づいてユーザ所望の圧縮アルゴリズムにより、 上記コンテンツデータを圧縮処 理する通信システム。
2 4 . 請求の範囲第 2 3項記載の通信システムにおいて、
上記信号処理手段は、 コンテンッデータとして入力される画像データから注目 画素に対応する注目画像ブロックを抽出し、 上記注目画像ブロックに含まれる画 素の画素値より上記注目画素をクラス分類し、 予め上記クラス毎に演算され記憶 された複数の係数と、 上記注目画素に対応する推定用画像プロツクに含まれる各 画素の画素値との線形一次結合により上記注目画素の推定画素値を出力し、 上記 注目画素の画素値から上記推定画素値を減算した値を符号化する圧縮アルゴリズ ムであるメソッドを備える通信システム。
2 5 . 請求の範囲第 2 3項記載の通信システムにおいて、
上記信号処理手段は、 コンテンヅデ一夕として入力される動画像データの現フ レームを少なくとも一以上のオブジェクト画像に分割し、 上記分割されたォブジ ェクト画像内のオブジェクトの動きべクトルを、 上記現フレームと過去フレーム とにより演算し、 上記演算された動きべクトルを出力する圧縮アルゴリズムであ るメソッ ドを備える通信システム。
2 6請求の範囲第 2 3項記載の通信システムにおいて、
上記信号処理手段は、 上記指示手段により指示された金額情報に応じて、 上記 信号処理手段から自動的に上記複数の圧縮アルゴリズムに対応する複数のメソッ ドから一のメソッドを選択するようなメソヅドを有する通信システム。
2 7 . 請求の範囲第 2 6項記載の通信システムにおいて、 上記一のメソッドを選択するメッツドは、 上記複数の圧縮アルゴリズムに対応 する複数のメソッドから最も利用料金が安価なメソッドを実行し、 上記安価なメ ソッドで圧縮された上記コンテンヅデ一夕を復号した復号デ一夕と、 原コンテン ヅデータとの差分値を演算し、 上記差分値が閾値以下のときに上記圧縮されたコ ンテンッデ一夕を出力する通信システム。
2 8 . 請求の範囲第 2 3項記載の通信システムにおいて、
上記信号処理手段は、 上記入力されるコンテンツデータとしての画像データの 特徴量に応じて、 上記信号処理手段から自動的に上記複数の圧縮アルゴリズムに 対応する複数のメソッドから一のメソッドを選択するようなメソッドを有する通 信システム。
2 9 . 請求の範囲第 2 8項記載の通信システムにおいて、
上記信号処理手段が有する上記複数のメソッドから一のメソッドを選択するメ ソヅドは、 上記入力されるコンテンヅデ一夕としての画像データの特徴量として アクティビティを検出し、 上記検出されるアクティビティが高いとき、 上記複数 のメソッ ドからより高度な圧縮アルゴリズムに対応するメソッドを選択する通信 システム。
3 0 . 請求の範囲第 2 3項記載の通信システムにおいて、
上記出力手段は、 上記入力されるコンテンツデータとしての画像データを表示 し、
上記指示手段は、 ユーザ操作により上記表示される画像デ一夕の所定位置を指 示し、
上記信号処理手段は、 上記指示手段により指示される所定位置に対応する上記 画像データ内のォブジェクト画像の特徴量に応じて、 上記ユーザの嗜好を推定し、 当該指定されたユーザの嗜好に基づいて上記画像データから上記ユーザが注目す るオブジェクト画像を自動的に抽出し、 当該抽出されたオブジェクト画像に対す る圧縮率を他のオブジェクト画像よりも低くなるように上記画像データを圧縮す るメソッドを有する通信システム。
3 1 . 請求の範囲第 2 0項記載の通信システムにおいて、
上記演算手段は、 上記利用料金記憶手段に記憶された情報に基づいて、 上記複 数のメソッ ドから一のメソッドを自動的に選択する自動選択メソッドの利用料金 と、 当該自動選択メソッドが選択した圧縮アルゴリズムに対応するメッツドの利 用料金との和により上記金額情報を演算する通信システム。
3 2 . 請求の範囲第 2 0項記載の通信システムにおいて、
上記演算手段は、 予め記憶される上記ユーザの口座番号、 上記メソッ ドによる サービスを提供する提供者の口座番号、 及び上記金額情報を、 外部の決済セン夕 に送信する通信システム。
3 3 . 請求の範囲第 2 0項記載の通信システムにおいて、
上記ハードゥヱァ制御手段は、 1クロック毎に入力される命令に応じて、 少な くとも上記制御手段に供給する電力を制御するメソツドを有する通信システム。 3 4 . 請求の範囲第 3 3項記載の通信システムにおいて、
上記ハードウエア制御手段と上記制御手段は 1チツプで構成され、 1クロック 毎に入力される命令に応じて、 上記ハードゥヱァ制御手段のメソッドが上記制御 手段の機能を選択的にスリープ状態にする通信システム。
3 5 . 請求の範囲第 3 4項記載の通信システムにおいて、
上記演算手段は、 予め記憶される上記ユーザの口座番号、 上記メソッドによる サービスを提供する提供者の口座番号、 及び上記金額情報を、 外部の決済セン夕 に送信する通信システム。
3 6 . 請求の範囲第 2 1項記載の通信システムにおいて、
上記信号処理手段は、 上記制御手段とは離れた遠隔地に配され、 上記指示手段 により指示された一のメソッドが上記記憶手段から読み出され上記制御手段にダ ゥン tt—ドされ、
上記制御手段は、 上記ダウンロードされたメソッドを実行する通信システム。 3 7 . ユーザに対する課金処理を行う課金処理装置であり、
外部装置から、 当該外部装置のアプリケーシヨン層とハードウヱァ制御層の所 望のメソッ ドの利用許可を要求する要求信号を受信する要求信号受信手段と、 上記受信された要求信号に基づいて上記メソッドの利用可否を判断する判断手 段と、
上記判断結果を上記受信手段に送信する判断結果送信手段と、 複数のメソッドの各々の利用料金情報を記憶する利用料金記憶手段と、 上記利用料金記憶手段に記憶された利用料金情報に基づいて、 上記指示手段に 対して指示するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情 報を出力する演算手段とを備える課金処理装置。
3 8 . 請求の範囲第 3 7項記載の課金処理装置において、
上記演算手段は、 上記利用料金記憶手段に記憶された情報に基づいて、 上記複 数のメソッドから一のメソッドを自動的に選択する自動選択メソッ ドの利用料金 と、 当該自動選択メソヅドが選択した圧縮アルゴリズムに対応するメソッドの利 用料金との和により上記金額情報を演算する課金処理装置。
3 9 . 請求の範囲第 3 7項記載の課金処理装置において、
上記演算手段は、 予め記憶される上記ユーザの口座番号、 上記メソッドによる サービスを提供する提供者の口座番号、 及び上記金額情報を、 外部の決済セン夕 に送信する課金処理装置。 '
4 0 . 第 1の通信装置、 第 2の通信装置及び課金処理装置からなる通信システム において、
第 1の通信装置は、
少なくとも上記送信装置のアプリケーション層と上記受信装置のハードウエア 制御層に対して所望のメソッドを指示可能な指示手段と、
上記指示手段により指示されたメソッドを要求する要求信号を送信する要求信 号送信手段と、
上記要求信号送信手段に応じたメソッドにより処理されたコンテンヅデ一夕を 受信する受信手段と、.
上記ハードウヱァ制御層に関わるメソッドを選択的に実行可能なハードウヱァ 制御手段と、
上記指示手段の指示に応じて、 上記ハ一ドウエア制御手段が上記指示されたメ ソッドを実行するように制御する第 1の制御手段と、
を有し、
第 2の通信装置は、
上記アプリケーション層に関わるメソヅドを選択的に実行し、 入力されるコン テンッデ一夕に対して信号処理する信号処理手段と、
上記要求信号送信手段から送信される送信される要求信号に応じて、 上記信号 • 処理手段が上記指示されたメソッ ドを実行するように制御する第 2の制御手段と、 上記信号処理されたコンテンツデ一夕を外部に送信する送信手段と、
を有し、
上記課金処理装置は、
上記信号処理手段或いは上記ハードウエア制御手段が有する複数のメソッドの 各々の利用料金情報を記憶する利用料金記憶手段と、
上記利用料金記憶手段に記憶された情報に基づいて、 上記指示手段に対して指 示するユーザへの課金量を示す金額情報をえ演算すると共に、 当該金額情報を出 力する演算手段とを備える通信システム。
4 1 . 請求の範囲第 4 0項記載の通信システムにおいて、
上記信号処理手段は、 複数のメソッドを記憶する記憶手段を備え、
上記第 1及び上記第 2の制御手段は、 上記指示手段の指示に応じて、 一のメソ ッド上記記憶手段から読み出すと共に実行する通信システム。
4 2 . 請求の範囲第 4 1項記載の通信システムにおいて、
上記入力されるコンテンツデータを圧縮処理する複数の圧縮アルゴリズムに対 応する複数のメッツドを有し、 上記第 2の制御手段による制御に基づいてユーザ 所望の圧縮アルゴリズムにより上記コンテンツデータを圧縮処理する通信システ ム。
4 3 . 請求の範囲第 4 1項記載の通信システムにおいて、
上記信号処理手段は、 コンテンツデータとして入力される画像データから注目 画素に対応する注目画像ブロックを抽出し、 上記注目画像ブロックに含まれる画 素の画素値より上記注目画素をクラス分類し、 予め上記クラス毎に演算され記憶 された複数の係数と、 上記注目画素に対応する推定用画像プロックに含まれる各 画素の画素値との線形一次結合により上記注目画素の推定画素値を出力し、 上記 注目画素の画素値から上記推定画素値を減算した値を符号化するような圧縮アル ゴリズムであるメソヅドを備える通信システム。
4 4 . 請求の範囲第 4 2項記載の通信システムにおいて、 上記信号処理手段は、 コンテンヅデ 夕として入力される動画像データの現フ レームを少なくとも一以上のオブジェクト画像に分割し、 上記分割されたォブジ ェクト画像内のォブジヱクトの動きベクトルを、 上記現フレ^ "ムと過去フレーム とにより演算し、 上記演算された動きべクトルを出力する圧縮アルゴリズムであ るメソッ ドを備える通信システム。
4 5 . 請求の範囲第 4 2項記載の通信システムにおいて、
上記信号処理手段は、 上記指示手段により指示された金額情報に応じて、 上記 信号処理手段から自動的に上記複数の圧縮アルゴリズムに対応する複数のメソッ ドから一のメソヅドを選択するメソヅドを有する通信システム。
4 6 . 請求の範囲第 4 5項記載の通信システムにおいて、
上記一のメソッドを選択するメソッドは、 上記複数の圧縮アルゴリズムに対応 する複数のメソッドから最も利用料金が安価なメソッドを実行し、 上記安価なメ ソッドで圧縮された上記コンテンヅデ一夕を復号した復号デ一夕と、 原コンテン ッデータとの差分値を演算し、 上記差分値が閾値以下のときに上記圧縮されたコ ンテンッデ一夕を出力する通信システム。
4 7 . 請求の範囲第 4 2項記載の通信システムにおいて、
上記信号処理手段は、 上記入力されるコンテンツデータとしての画像デ一夕の 特徴量に応じて、 上記信号処理手段から自動的に上記複数の圧縮アルゴリズムに 対応する複数のメソッ ドから一のメソッドを選択するようなメソッドを有する通 信システム。
4 8 . 請求の範囲第 4 7項記載の通信システムにおいて、
上記信号処理手段が有する上記複数のメソッドから一のメソッドを選択するメ ソッドは、 上記入力されるコンテンツデ一夕としての画像データの特徴量として アクティビティを検出し、 上記検出されるアクティビティが高いとき、 上記複数 のメソッ ドからより高度な圧縮アルゴリズムに対応するメソッドを選択する通信 システム。
4 9 . 請求の範囲第 4 2項記載の通信システムにおいて、
上記システムは、 更に、
上記入力されるコンテンツデータとしての画像データを表示する表示手段を備 え、
上記指示手段は、 ユーザ操作により上記表示される画像データの所定位置を指 示し、
上記信号処理手段は、 上記指示手段により指示される所定位置に対応する上記 画像デ一夕内のオブジェクト画像の特徴量に応じて、 上記ユーザの嗜好を推定し、 当該指定されたユーザの嗜好に基づいて上記画像データから上記ユーザが注目す るオブジェクト画像を自動的に抽出し、 当該抽出されたオブジェクト画像に対応 する圧縮率を他のオブジェクト画像よりも低くなるように上記画像データを圧縮 するメソヅドを有する通信システム。
5 0 . 請求の範囲第 4 5項記載の通信システムにおいて、
上記算出手段は、 上記利用料金記憶手段に記憶された情報に基づいて、 上記複 数のメソッドから一のメソッドを自動的に選択する自動選択メソッドの利用料金 と、 東岸自動選択メソヅドが選択した圧縮アルゴリズムに対応するメソヅドの利 用料金との和により上記金額情報を演算する通信システム。
5 1 . 請求の範囲第 5 0項記載の通信システムにおいて、
上記演算手段は、 予め記憶される上記ユーザの口座番号、 上記メソッドによる サービスを提供する提供者の口座番号、 及び上記金額情報を、 外部の決済セン夕 に送信する通信システム。
5 2 . 請求の範囲第 4 0項記載の通信システムにおいて、
上記ハードゥヱァ制御手段は、 1クロック毎に入力される命令に応じて、 少な くとも上記制御手段に供給する電力を制御するメソッドを有する通信システム。 5 3 . 請求の範囲第 5 2項記載の通信システムにおいて、
上記ハードウエア制御手段と上記制御手段は 1チップで構成され、 1クロック 毎に入力される命令に応じて、 上記ハードウェア制御手段のメソッ ドが上記制御 手段の機能を選択的にスリープ状態にする通信システム。
5 4 . 請求の範囲第 5 3項記載の通信システムにおいて、
上記演算手段は、 予め記録される上記ユーザの口座番号、 上記メソッドによる サービスを提供する提供者の口座番号及び上記金額情報を外部の決済センタに送 信する通信システム。
5 5 . 通信装置であり、
少なくともアプリケ一シヨン層とハードウエア制御層に対して所望のメソヅ ド を指示可能な指示手段と、
上記指示手段により指示されたメソッドを要求する要求信号を送信する要求信 号送信手段と、
上記要求信号送信手段に応じたメソッドにより処理されたコンテンツデー夕を 受信する受信手段と、
上記ハードウエア制御層に関わるメソッドを選択的に実行可能なハードウエア 制御手段と、
上記指示手段の指示の応じて、 上記ハードウエア制御手段が上記指示されたメ ソッドを実行するよう制御する制御手段と、
を備える通信装置。
5 6 . 請求の範囲第 5 5項記載の通信装置において、
上記ハードゥヱァ制御手段は、 1クロヅク毎に入力される命令に応じて、 少な くとも上記制御手段に供給す.る電力を制御するメソッドを有する通信装置。
5 7 . 請求の範囲第 5 6項記載の通信装置において、
上記ハードウエア制御手段と上記制御手段は 1チップで構成され、 1クロック 毎に入力される命令に応じて、 上記ハードゥヱァ制御手段のメソッドが上記制御 手段の機能を選択的にスリーブ状態にする通信装置。
5 8 . 請求の範囲第 5 5項記載の通信装置において、
上記受信手段は、 上記ハードウェア制御手段が記憶する複数のメソッ ドの各々 の利用料金情報に基づいて、 利用料金請求のための請求信号を受信する通信装置。 5 9 . コンテンツデータの通信を行う通信装置において、
外部からのアプリケーシヨン層のメソッ ドの実行を要求する要求信号を受信す る受信手段と、
アプリケーション層に関わるメソヅドを選択的に実行し、 入力されるコンテン ヅデータに対して信号処理する信号処理手段と、
上記受信される要求に信号に応じて、 上記信号処理手段が上記指示されたメソ ッドを実行するように制御する制御手段と、 上記信号処理されたコンテンツデータを外部に送信する送信手段とを備える通 信装置。
6 0 . 請求の範囲第 5 9項記載の通信装置において、
上記信号処理手段は、 複数のメソッドを記憶する記億手段を備え、
上記制御手段は、 上記要求信号に応じて、 一のメソッド上記記憶手段から読み 出すと共に実行する通信装置。
6 1 . 請求の範囲第 6 0項記載の通信装置において、
上記信号処理手段は、 上記入力されるコンテンヅデ一夕を圧縮処理する複数の 圧縮アルゴリズムに対応する複数のメソッ ドを有し、 上記制御手段による制御に 基づいてユーザ所望の圧縮アルゴリズムにより、 上記コンテンヅデータを圧縮処 理する通信装置。
6 2 . 請求の範囲第 6 0項記載の通信装置において、
上記信号処理手段は、 コンテンツデ一夕として入力される画像データから注目 画素に対応する注目画像プロックを抽出し、 上記注目画像プロ、ソクに含まれる画' 素の画素値より上記注目画素をクラス分類し、 予め上記クラス毎に演算され記憶 された複数の係数と、 上記注目画素に対応する推定用画像ブロックに含まれる各 画素の画素値との線形一次結合により上記注目画素の推定画素値を出力し、 上記 注目画素の画素値から上記推定画素値を減算した値を符号化する圧縮アルゴリズ ムであるメソッドを備える通信装置。
6 3 . 請求の範囲第 6 1項記載の通信装置において、
上記信号処理手段は、 コンテンッデータとして入力される動画像デ一夕の現フ レームを少なくとも一以上のオブジェクト画像に分割し、 上記分割されたォブジ ェクト画像内のオブジェクトの動きぺクトルを、 上記現フレームと過去フレーム とにより演算し、 上記演算された動きべクトルを出力する圧縮アルゴリズムであ るメソッドを備える通信装置。
6 4 . 請求の範囲第 6 1項記載の通信装置において、
上記信号処理手段は、 上記要求信号により指示された金額情報に応じて、 上記 信号処理手段から自動的に上記複数の圧縮アルゴリズムに対応する複数のメソッ ドから一のメソッドを選択するようなメソッドを有する通信装置。
6 5 . 請求の範囲第 6 4項記載の通信装置において、
上記一のメソッドを選択するメソッドは、 上記複数の圧縮アルゴリズムに対応 する複数のメソッドから最も利用料金が安価なメソッドを実行し、 上記安価なメ ソッドで圧縮された上記コンテンツデータを復号した復号データと、 原コンテン ヅデ一夕との差分値を演算し、 上記差分値が閾値以下のときに上記圧縮されたコ ンテンヅデータを出力する通信装置。
6 6 . 請求の範囲第 6 1項記載の通信装置において、
上記信号処理手段は、 上記入力されるコンテンヅデ一夕としての画像デ一夕の 特徴量に応じて、 上記信号処理手段から自動的に上記複数の圧縮アルゴリズムに 対応する複数のメソ ヅ ドから一のメソッドを選択するようなメソッドを有する通
6 7 . 請求の範囲第 6 6項記載の通信装置において'、
上記信号処理手段が有する上記複数のメソヅドがら一のメソッドを選択するメ ソッドは、 上記入力されるコンテンヅデ一夕としての画像データの特徴量として アクティビティを検出し、 上記検出されるアクティビティが高いとき、 上記複数 のメソッドからより高度圧縮アルゴリズムに対応するメソッドを選択する通信装 置。
6 8 . 請求の範囲第 6 1項記載の通信装置において、
上記信号処理手段は、 上記要求信号により指示される所定位置に対応する上記 コンテンツデ一夕としての画像デ一夕内ォブジヱクト画像の時微量に応じて、 上 記ユーザの嗜好を推定し、 当該推定されたユーザの嗜好に基づいて上記画像デー 夕がら上記ユーザが注目するオブジェクト画像を自動的に抽出し、 当該抽出され たォブジェクト画像に対する圧縮率を他のオブジェクト画像よりも低くなるよう に上記画像データを庄縮するメソッドを有する通信装置。
6 9 . 請求の範囲第 6 4項記載の通信装置において、
上記装置は、 更に、
上記信号処理手段が記憶する複数のメソッドの各々の利用料金情報を記憶する 利用料金記憶手段と、
上記利用料金記億手段に記憶された情報に基づいて、 上記要求信号を送信した ユーザへの課金量を示す料金情報を演算すると共に、 当該金額情報を出力する演 算手段とを備える通信装置。
7 0 . 請求の範囲第 6 9項記載の通信装置において、
上記演算手段は、 上記利用料金記憶手段に記憶された情報に基づいて、 上記複 数のメソッドから一のメソッドを自動的に選択する自動選択メソッドの利用料金 と、 当該自動選択メソヅドが選択した圧縮アルゴリズムに対応ずるメソヅドの利 用料金との和により上記金額情報を演算する通信装置。
7 1 . 請求の範囲第 7 0項記載の通信装置において、
上記演算手段は、 予め記憶される上記ユーザの口座番号、 上記メソッドによる サービスを提供する提供者の口座番号及び上記金額情報を外部の決済センタに送 信する通信装置。
7 2 . データ処理方法において、
少なくともアプリケーシヨン層とハ一ドウヱァ制御層に対して所望のメソヅド ' を指示し、
上記指示に応じて上記アプリケ一シヨン層のメソッドを実行し、
• 上記指示に応じて上記ハードウェア制御層のメソッドを実行するデータ処理方 法。
7 3 . ユーザに対する課金量の金額情報を演算する通信方法において、
少なくともアプリケーシヨン層とハードウエア制御層に対して所望のメソヅド を指示し、
上記指示されたメソッドに応じて、 上記メソッドの利用可否を判断し、 上記メソッドの利用可否に応じて、 上記要求されたメソッドを信号処理手段或 いはハードウエア制御手段が実行し、
上記メソッドに対応する利用料金情報に応じて、 上記指示するユーザへの課金 量を示す金額情報を演算する通信方法。
7 4 . ユーザに課金情報を示す課金処理方法において、
外部装置から、 当該外部装置のアプリケーシヨン層とハードウヱァ制御層の所 望のメソッドの利用許可を要求する要求信号を受信し、
上郷受信された要求信号に基づいて上記メソッ ドの利用可否を判断し、 上記判断結果に応じて、 上記メソッドの各々の利用料金情報に基づいて、 上記 要求信号を送信するユーザへの課金量を示す金額情報を演算すると共に、 当該金 額情報を出力する課金処理方法。
7 5 . コンテンツデ一夕の通信を行う通信方法において、
少なくとも上記送信装置のアプリケーション層と上記受信装置のハードウェア 制御層に対して所望のメソッドを指示し、
上記指示されたメソッドを要求する要求信号を送信し、
上記送信される要求信号に応じて、 上記メソッドを実行することにより上記送 信装置に入力されるコンテンツデータに対して信号処理手段が信号処理し、 上記信号処理されたコンテンヅデータを上記送信装置から上記受信装置に送信 し、
上記受信装置は、 上記送信されたコンテンヅデ一夕を受信し、
上記指示されたメソッドに応じて、 ハ一ドウエア制御手段により実行されるメ ソッ ドが上記受信装置の内部回路に対する電力供給を制御し、'
上記信号処理手段或いは上記ハードウエア制御手段が有する複数のメソッドの 各々の利用料金情報を記憶する利用料金記憶手段に記憶された情報に基づいて、 上記指示するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情報 を出力する通信方法。
7 6 . コンテンッデ一夕の通信を行う通信方法において、
少なくともアプリケ一シヨン層とハードウヱァ制御層に対して所望のメソッド を指示し、
上記指示されたメソッドを要求する要求信号を送信し、
上記要求信号に応じたメソッドにより処理されたコンテンツデータを受信し、 ハードウェア制御手段が上記指示されたメソッドを実行し、 本装置の内部回路 への電力供給を制御する通信方法。
7 7 . コンテンツデータを外部に送信する通信方法において、
外部からのアプリケーション層のメソヅドの実行を要求する要求信号を受信し、 上記受信される要求信号に応じて、 上記アプリケ一シヨン層に関わるメソヅド を選択的に実行し、 入力されるコンテンツデ一タに対して信号処理し、 上記信号処理されたコンテンヅデ一夕を外部に送信する通信方法。
7 8 . 情報処理手段により読み取り可能なプログラムが格納されている記憶媒体 であり、
上記プログラムは、
少なくともアプリケ一シヨン層とハードウヱァ制御層に対して所望のメソヅド を指示し、
上記指示に応じて上記アプリケーシヨン層のメソッドを実行し、
上記指示に応じて上記ハードウエア制御層のメソッドを実行する
記憶媒体。
7 9 . 情報処理手段により読み取り可能なプログラムが格納されている記憶媒体 であり、
上記プログラムは、
少なくともアプリケーシヨン層とハードウヱァ制御層に対して所望のメソッド を指示し、
上記指示されたメソッドに応じて、 上記メソッドの利用可否を判断し、 上記メソッドの利用可否に応じて、 上記要求されたメソッドを信号処理手段或 いはハードウェア制御手段が実行し、
上記メソッ ドに対応する利用料金情報に応じて、 上記指示するユーザへの課金 量を示す金額情報を演算する
記憶媒体。
8 0 . 情報処理手段により読み取り可能なプログラムが格納されている記憶媒体 であり、
上記プログラムは、
外部装置から、 当該外部装置のアプリケーシヨン層とハードウヱァ制御層の所 望のメソッ ドの利用許可を要求する要求信号を受信し、
上郷受信された要求信号に基づいて上記メソッドの利用可否を判断し、 上記判断結果に応じて、 上記メソッドの各々の利用料金情報に基づいて、 上記 要求信号を送信するユーザへの課金量を示す金額情報を演算すると共に、 当該金 額情報を出力する 記憶媒体。
8 1 . 情報処理手段により読み取り可能なプログラムが格納されている記憶媒体 であり、
上記プログラムは、
少なくとも上記送信装置のアプリケ一シヨン層と上記受信装置のハードウエア 制御層に対して所望のメソッドを指示し、
上記指示されたメソツドを要求する要求信号を送信し、
上記送信される要求信号に応じて、 上記メソッドを実行することにより上記送 信装置に入力されるコンテンツデ一夕に対して信号処理手段が信号処理し、 上記信号処理されたコンテンツデータを上記送信装置から上記受信装置に送信 し、
上記受信装置は、 上記送信されたコンテンツデ一夕を受信し、
上記指示されたメソッドに応じて、 ハードウエア制御手段により実行されるメ ソッドが上記受信装置の内部回路に対する電力供給を制御し、
上記信号処理手段或いは上記ハードウエア制御手段が有する複数のメソッドの 各々の利用料金情報を記憶する利用料金記憶手段に記憶された情報に基づいて、 上記指示するユーザへの課金量を示す金額情報を演算すると共に、 当該金額情報 を出力する
記憶媒体。
8 2 . 情報処理手段により読み取り可能なプログラムが格納されている記憶媒体 であり、
上記プログラムは、
少なくともアプリケーシヨン層とハードウエア制御層に対して所望のメソヅド を指示し、
上記指示されたメソッドを要求する要求信号を送信し、
上記要求信号に応じたメソッドにより処理されたコンテンヅデ一夕を受信し、 ハードウェア制御手段が上記指示されたメソッ ドを実行し、 本装置の内部回路 への電力供給を制御する
記憶媒体。
8 3 . 情報処理手段により読み取り可能なプログラムが格納されている記憶媒体 であり、
上記プログラムは、
外部からのアプリケーシヨン層のメソッドの実行を要求する要求信号を受信し、 上記受信される要求信号に応じて、 上記アプリケーシヨン層に関わるメソヅド を選択的に実行し、 入力されるコンテンツデータに対して信号処理し、
上記信号処理されたコンテンツデ一夕を外部に送信する
記憶媒体。
PCT/JP2001/004670 2000-06-02 2001-06-01 Data processing system and method, communication system and method, and charging device and method WO2001093584A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/048,759 US7313386B2 (en) 2000-06-02 2001-06-01 Data processing system and method, communication system and method, and charging device and method
US11/726,243 US7869797B2 (en) 2000-06-02 2007-03-21 Data processing system and method, communication system and method, and charging apparatus and method
US11/888,268 US7856227B2 (en) 2000-06-02 2007-07-31 Data processing system and method, communication system and method, and charging apparatus and method
US12/112,313 US7966005B2 (en) 2000-06-02 2008-04-30 Data processing system and method, communication system and method, and charging apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-166733 2000-06-02
JP2000166733A JP4560897B2 (ja) 2000-06-02 2000-06-02 通信装置、通信方法及び媒体

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US10048759 A-371-Of-International 2001-06-01
US11/726,243 Continuation US7869797B2 (en) 2000-06-02 2007-03-21 Data processing system and method, communication system and method, and charging apparatus and method
US11/888,268 Continuation US7856227B2 (en) 2000-06-02 2007-07-31 Data processing system and method, communication system and method, and charging apparatus and method

Publications (1)

Publication Number Publication Date
WO2001093584A1 true WO2001093584A1 (en) 2001-12-06

Family

ID=18670009

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/004670 WO2001093584A1 (en) 2000-06-02 2001-06-01 Data processing system and method, communication system and method, and charging device and method

Country Status (3)

Country Link
US (4) US7313386B2 (ja)
JP (1) JP4560897B2 (ja)
WO (1) WO2001093584A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2370709A (en) * 2000-12-28 2002-07-03 Nokia Mobile Phones Ltd Displaying an image and associated visual effect
US7466992B1 (en) * 2001-10-18 2008-12-16 Iwao Fujisaki Communication device
GB0200797D0 (en) * 2002-01-15 2002-03-06 Superscape Uk Ltd Efficient image transmission
KR100703421B1 (ko) * 2003-01-20 2007-04-03 삼성전자주식회사 트랜스코딩을 이용한 동영상메일 통신장치 및 방법
EP1686806A4 (en) * 2003-11-21 2011-07-20 Nec Corp DEVICE FOR DISTRIBUTION / RECEPTION OF CONTENTS, SYSTEM FOR TRANSMISSION / RECEIPT OF CONTENTS, PROCEDURE FOR DISTRIBUTION / RECEPTION OF CONTENT AND PROGRAM FOR DISTRIBUTION / RECEPTION OF CONTENTS
US7664763B1 (en) * 2003-12-17 2010-02-16 Symantec Operating Corporation System and method for determining whether performing a particular process on a file will be useful
CN100345164C (zh) * 2004-05-14 2007-10-24 腾讯科技(深圳)有限公司 一种动态虚拟形象的合成方法
KR100747879B1 (ko) 2004-06-10 2007-08-08 캐논 가부시끼가이샤 화상 처리 장치, 제어 방법 및 기록 매체
US8340177B2 (en) * 2004-07-12 2012-12-25 Microsoft Corporation Embedded base layer codec for 3D sub-band coding
US8442108B2 (en) 2004-07-12 2013-05-14 Microsoft Corporation Adaptive updates in motion-compensated temporal filtering
US8374238B2 (en) * 2004-07-13 2013-02-12 Microsoft Corporation Spatial scalability in 3D sub-band decoding of SDMCTF-encoded video
JP4019380B2 (ja) * 2004-11-29 2007-12-12 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
DE102004063796B4 (de) * 2004-12-30 2008-09-11 ASTRA Gesellschaft für Asset Management mbH & Co. KG Verfahren und Anordnung zur Fernübertragung von Daten, die wenigstens Bilddaten umfassen
KR100739173B1 (ko) * 2005-03-16 2007-07-13 엘지전자 주식회사 영상통화 중 영상 생성 방법 및 그 장치
US8787967B2 (en) * 2005-08-23 2014-07-22 Sony Corporation Communication terminals with pull-based digital information distribution capability and pull-based methods for digital information distribution
US7956930B2 (en) 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
JP2009004999A (ja) * 2007-06-20 2009-01-08 Panasonic Corp 映像データ管理装置
GB2451270A (en) * 2007-07-25 2009-01-28 Intellistream Ltd Video Data Communication System and Method
US8953673B2 (en) 2008-02-29 2015-02-10 Microsoft Corporation Scalable video coding and decoding with sample bit depth and chroma high-pass residual layers
US8711948B2 (en) 2008-03-21 2014-04-29 Microsoft Corporation Motion-compensated prediction of inter-layer residuals
US9571856B2 (en) 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
US8213503B2 (en) 2008-09-05 2012-07-03 Microsoft Corporation Skip modes for inter-layer residual video coding and decoding
US20110194616A1 (en) * 2008-10-01 2011-08-11 Nxp B.V. Embedded video compression for hybrid contents
US8947547B1 (en) 2010-09-12 2015-02-03 Thomas Nathan Millikan Context and content based automated image and media sharing
EP2523145A1 (en) * 2011-05-11 2012-11-14 Alcatel Lucent Method for dynamically adapting video image parameters for facilitating subsequent applications
US8374421B1 (en) 2011-10-18 2013-02-12 Google Inc. Methods and systems for extracting still frames from a compressed video
US20130262580A1 (en) * 2012-03-30 2013-10-03 Kabushiki Kaisha Toshiba Social infrastructure control system, server, control method, and medium
KR101700616B1 (ko) * 2012-06-27 2017-01-31 한국전자통신연구원 화면 동기화를 위한 멀티미디어 장치와 원격 제어 장치 및 그 방법
JP6024952B2 (ja) * 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
CN104516650A (zh) * 2013-09-27 2015-04-15 联想(北京)有限公司 一种信息处理方法及电子设备
US10636064B2 (en) 2015-12-31 2020-04-28 VeriPhase, Inc. Method for monetization of the data processing of ultrasonic scan data files
WO2020204978A1 (en) * 2019-04-04 2020-10-08 VeriPhase, Inc. Method for monetization of the data processing of ultrasonic scan data files

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264092A (ja) * 1994-03-17 1995-10-13 Fujitsu Ltd 情報提供装置
JPH0944578A (ja) * 1995-08-03 1997-02-14 Fujitsu Ltd 自動振替契約システムと方法
JPH0993560A (ja) * 1995-09-25 1997-04-04 Fujitsu Ltd 書画の暗号化及び復号化装置
JPH09154131A (ja) * 1995-11-29 1997-06-10 Sharp Corp 画像符号化装置
JPH10112856A (ja) * 1996-10-04 1998-04-28 Agency Of Ind Science & Technol 画像伝送装置および方法
JPH10327282A (ja) * 1997-03-26 1998-12-08 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
JPH10333901A (ja) * 1997-06-02 1998-12-18 Canon Inc 情報処理装置及びソフトウェア管理方法
JPH1169141A (ja) * 1997-08-25 1999-03-09 Fuji Photo Film Co Ltd 画像生成方法および装置
JPH11112871A (ja) * 1997-09-30 1999-04-23 Sony Corp 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体
JPH11187407A (ja) * 1997-12-19 1999-07-09 Sony Corp 画像符号化装置および画像符号化方法、提供媒体、画像復号装置および画像復号方法、並びに学習装置および学習方法
JPH11305887A (ja) * 1998-04-23 1999-11-05 Oki Electric Ind Co Ltd マイクロコントローラの制御方法及びマイクロコントローラ
JP2000092004A (ja) * 1998-09-10 2000-03-31 Matsushita Electric Ind Co Ltd 受信端末装置およびセンター装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2696026B1 (fr) * 1992-09-18 1994-12-30 Sgs Thomson Microelectronics Procédé de masquage d'erreurs de transmission d'image compressée en MPEG.
US6041316A (en) * 1994-07-25 2000-03-21 Lucent Technologies Inc. Method and system for ensuring royalty payments for data delivered over a network
GB9419246D0 (en) * 1994-09-23 1994-11-09 Cambridge Consultants Data processing circuits and interfaces
JPH08307846A (ja) * 1995-04-28 1996-11-22 Toshiba Corp 提供情報再生課金管理システム
US5790642A (en) * 1995-04-28 1998-08-04 Dialogic Corporation Competitively bidding service centers
JPH0981569A (ja) * 1995-09-12 1997-03-28 Hitachi Ltd 多カ国対応サービス提供システム
JPH09327074A (ja) * 1996-06-04 1997-12-16 Sony Corp 無線通信システム及び通信方法並びに移動通信端末装置
JPH09328189A (ja) * 1996-06-10 1997-12-22 Showa Aircraft Ind Co Ltd タンクローリの底弁
JPH10164552A (ja) * 1996-11-29 1998-06-19 Matsushita Electric Ind Co Ltd ビデオオンデマンド送信装置及びビデオオンデマンド端末装置
US6260145B1 (en) * 1997-02-14 2001-07-10 Fujitsu Limited System and method of authentication of digital information
JP3045981B2 (ja) * 1997-08-26 2000-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション コンピュータ及びパラメータ設定方法
JPH11173255A (ja) 1997-12-05 1999-06-29 Yukio Numata 半永久機関
JPH11306197A (ja) * 1998-04-24 1999-11-05 Canon Inc 画像処理装置及びその方法、コンピュータ可読メモリ
KR20000013284A (ko) * 1998-08-06 2000-03-06 윤종용 부호분할다중접속 방식의 이동통신 시스템의 무료정보 및 유료정보 방송서비스 방법
US6802033B1 (en) * 1999-04-06 2004-10-05 International Business Machines Corporation Low-power critical error rate communications controller
US6779040B1 (en) * 1999-08-27 2004-08-17 Hewlett-Packard Development Company, L.P. Method and system for serving data files compressed in accordance with tunable parameters
US6809724B1 (en) * 2000-01-18 2004-10-26 Seiko Epson Corporation Display apparatus and portable information processing apparatus
JP2003230117A (ja) * 2002-01-31 2003-08-15 Nec Commun Syst Ltd 動画像データの送信システム、同送信装置、同送信方式および同送信方法
JP3685150B2 (ja) * 2002-04-26 2005-08-17 セイコーエプソン株式会社 クロック制御回路、データ転送制御装置及び電子機器
US20040255113A1 (en) * 2003-03-31 2004-12-16 Masaaki Ogura Digital certificate management system, apparatus and software program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07264092A (ja) * 1994-03-17 1995-10-13 Fujitsu Ltd 情報提供装置
JPH0944578A (ja) * 1995-08-03 1997-02-14 Fujitsu Ltd 自動振替契約システムと方法
JPH0993560A (ja) * 1995-09-25 1997-04-04 Fujitsu Ltd 書画の暗号化及び復号化装置
JPH09154131A (ja) * 1995-11-29 1997-06-10 Sharp Corp 画像符号化装置
JPH10112856A (ja) * 1996-10-04 1998-04-28 Agency Of Ind Science & Technol 画像伝送装置および方法
JPH10327282A (ja) * 1997-03-26 1998-12-08 Sony Corp 情報処理装置および情報処理方法、並びに記録媒体
JPH10333901A (ja) * 1997-06-02 1998-12-18 Canon Inc 情報処理装置及びソフトウェア管理方法
JPH1169141A (ja) * 1997-08-25 1999-03-09 Fuji Photo Film Co Ltd 画像生成方法および装置
JPH11112871A (ja) * 1997-09-30 1999-04-23 Sony Corp 画像抜き出し装置および画像抜き出し方法、画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、画像記録装置および画像記録方法、画像再生装置および画像再生方法、並びに記録媒体
JPH11187407A (ja) * 1997-12-19 1999-07-09 Sony Corp 画像符号化装置および画像符号化方法、提供媒体、画像復号装置および画像復号方法、並びに学習装置および学習方法
JPH11305887A (ja) * 1998-04-23 1999-11-05 Oki Electric Ind Co Ltd マイクロコントローラの制御方法及びマイクロコントローラ
JP2000092004A (ja) * 1998-09-10 2000-03-31 Matsushita Electric Ind Co Ltd 受信端末装置およびセンター装置

Also Published As

Publication number Publication date
JP2001344098A (ja) 2001-12-14
US7313386B2 (en) 2007-12-25
US20070177003A1 (en) 2007-08-02
US7869797B2 (en) 2011-01-11
US7856227B2 (en) 2010-12-21
US20080227431A1 (en) 2008-09-18
JP4560897B2 (ja) 2010-10-13
US20020181586A1 (en) 2002-12-05
US7966005B2 (en) 2011-06-21
US20080279276A1 (en) 2008-11-13

Similar Documents

Publication Publication Date Title
WO2001093584A1 (en) Data processing system and method, communication system and method, and charging device and method
KR100811572B1 (ko) 송신 장치 및 송신 방법, 수신 장치 및 수신 방법, 송수신 장치 및 송수신 방법, 및 기록 매체
US10666962B2 (en) Training end-to-end video processes
JP2021103327A (ja) コンテンツを提供及び表示するための装置及び方法
JP6339012B2 (ja) 層状の信号品質階層の再構成データの送信
CN101300840A (zh) 多视角视频传递
WO2001093591A1 (en) Image processing apparatus and method, communication apparatus, communication system and method, and recorded medium
WO2013144049A1 (en) Method and apparatus for encoding a selected spatial portion of a video stream
KR100904334B1 (ko) 화상 처리 카드, 화상 데이터 처리 장치 및 화상 데이터 처리 방법, 기록 매체, 및 화상 데이터 처리 시스템
JPH11187407A (ja) 画像符号化装置および画像符号化方法、提供媒体、画像復号装置および画像復号方法、並びに学習装置および学習方法
JP4534951B2 (ja) 画像符号化装置および画像符号化方法、画像処理システムおよび画像処理方法、伝送方法、並びに記録媒体
JP3918191B2 (ja) 記憶装置、データ処理装置およびデータ処理方法、プログラムおよび記録媒体、並びにデータ処理システム
KR100802180B1 (ko) 엠펙-4 비디오 신호의 비트율을 동적인 통신 용량 변화에따라 제어하는 방법
JP2001320682A (ja) データ処理装置およびデータ処理方法、並びに記録媒体およびプログラム
KR100567710B1 (ko) 화상코딩장치,화상코딩방법,화상디코딩방법,화상디코딩장치,화상데이타전송방법및기록매체
EP4115328A1 (en) A system, an arrangement, a computer software module arrangement, a circuitry arrangement and a method for improved image processing utilzing two entities
JPH1084549A (ja) 画像符号化装置および画像符号化方法、画像復号化装置および画像復号化方法、伝送方法、並びに記録媒体
JP2002044657A (ja) 画像復号化方法、画像復号化装置および画像復号化プログラム記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA US

WWE Wipo information: entry into national phase

Ref document number: 10048759

Country of ref document: US