WO1992017875A1 - Method and apparatus for image or data processing, and monitoring method and apparatus using the same - Google Patents

Method and apparatus for image or data processing, and monitoring method and apparatus using the same Download PDF

Info

Publication number
WO1992017875A1
WO1992017875A1 PCT/JP1992/000434 JP9200434W WO9217875A1 WO 1992017875 A1 WO1992017875 A1 WO 1992017875A1 JP 9200434 W JP9200434 W JP 9200434W WO 9217875 A1 WO9217875 A1 WO 9217875A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
information
data
display
image
Prior art date
Application number
PCT/JP1992/000434
Other languages
English (en)
French (fr)
Inventor
Masayuki Tani
Kimiya Yamaashi
Koichiro Tanikoshi
Masayasu Futakawa
Shinya Tanifuji
Atsuhiko Nishikawa
Atsuhiko Hirota
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP07492791A external-priority patent/JP3375644B2/ja
Priority claimed from JP3238277A external-priority patent/JP2970964B2/ja
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to DE4290947A priority Critical patent/DE4290947B4/de
Publication of WO1992017875A1 publication Critical patent/WO1992017875A1/ja
Priority to KR1019997005176A priority patent/KR100257593B1/ko
Priority to US09/845,838 priority patent/US6965376B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0208Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the configuration of the monitoring system
    • G05B23/0216Human interface functionality, e.g. monitoring system providing help to the user in the selection of tests or in its configuration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0267Fault communication, e.g. human machine interface [HMI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Definitions

  • the present invention relates to a man-machine interface using sound or video data (hereinafter simply referred to as a man-machine), and particularly to the sound of an object. Also, the present invention relates to a video or information processing method and apparatus for performing processing on the object using video data, and a method and apparatus for monitoring the object using the same.
  • an operation monitoring system In order to safely operate a large-scale plant such as a nuclear power plant, an operation monitoring system with an appropriate man-machine is indispensable.
  • the plant is operated and maintained by the operator's three tasks of “monitoring”, “judgment” and “operation”.
  • the operation monitoring system needs to be equipped with a man-machine that can perform these three operations smoothly.
  • the status of the plant In the “monitoring” work, the status of the plant needs to be grasped immediately and accurately.
  • the operator At the time of “judgment,” the operator must be able to quickly refer to the source of the judgment and the information that is the basis.
  • it is essential to have an operation environment in which the target of the operation and the result of the operation can be intuitively understood and the operation intended by the operator can be executed accurately and quickly.
  • the condition in the plant is monitored by monitoring data from various sensors that detect pressure, temperature, etc., and images from video cameras located at various points on the plant. Can be understood. Values from various sensors are displayed in various forms, such as on a graphic display. It is often used for trend graphs and bar graphs. On the other hand, video from a video camera is often displayed on a dedicated monitor separate from the graphic display. Often more than 40 cameras are installed in the plant. The operator switches the camera and monitors the various parts of the plant while controlling the direction and lens of the camera. In normal surveillance work, operators rarely see images from cameras, and the utilization rate of camera images is currently low.
  • buttons and levers on the operation panel are abstract forms that are separated from the objects at the site. It may be difficult for the user to recall those functions or the results of the operation. In other words, it is difficult to know which lever can be used to perform the desired operation, or to intuitively know which operation is sent to which device in the plant when a certain button is pressed. There is a problem that it is difficult to grasp. Also, since the operation panel is configured independently of a monitor such as a force camera, there is a problem that the device becomes large.
  • a monitoring system such as a process control monitoring system
  • one monitor is installed in the central control room, and an ITV camera (industi ra l te l ev is on camera) is installed on the process side.
  • ITV camera industi ra l te l ev is on camera
  • a method of visually monitoring the status of the process by displaying the state of the process on a monitor with an image taken by the power camera is adopted.
  • the video and sound are recorded on a recording medium such as a video tape.
  • the video and sound are rewound and played back when something is wrong.
  • control data such as process data (measurement data), which is sent from the process every moment, is displayed on monitors and meters in the central control room, and also in the system.
  • the data is stored on a nightly basis, and can be retrieved from the database when an error occurs or analysis is required.
  • This is introduced in the plant operation history display method in Japanese Patent Publication No. 60 — 935 18.
  • the conventional operation monitoring system has the following problems.
  • the video information from the camera and other information are managed completely independently, and cross-reference cannot be easily performed. For this reason, it is difficult to make a comprehensive judgment of the situation.
  • the method disclosed in Japanese Patent Application Laid-Open No. 2-224101 is advantageous in that a graphic display and a camera image related to a device specified from a keyboard can be displayed simultaneously.
  • the operation of the force camera can be specified on the screen displaying the image without using an input device such as a joystick, but the camera No, you can only select commands such as direction, zoom in and zoom in. Operators have to adjust how much panning makes the monitored object more visible.
  • the operation complexity is not much different from that of the joystick, and the operation target is limited to one camera, so the optimal Cannot select video.
  • the contents (e.g., the device in the image) shown in the video are directly specified, and information (video, control information, etc.) related to the content is directly specified. Cannot be called up. Therefore, it is necessary for the operator to find out information related to the content shown in the video by himself.
  • An object of the present invention is to provide an information processing method and apparatus which can perform a process related to output sound or video data related to an object based on information related to the data.
  • Another object of the present invention is to provide a video processing method for performing processing on at least one video image of at least one object displayed on a screen of a display means on the basis of information on the object. And equipment.
  • Still another object of the present invention is to provide a monitoring device capable of outputting information for controlling a monitoring target (object) in association with sound or video data relating to the monitoring target. And there.
  • a video processing for processing a video image of at least one object displayed on a screen of a display unit.
  • the apparatus includes a unit for storing information on the object, and a unit for performing a process on the object based on the information.
  • An information processing device that stores data (control data) for the object and also stores sound or video data relating to the object includes a unit and a unit that associates the control data with the sound or video data. On the basis of the unit to be associated, the control data and the unit for associating and outputting the sound or video data are selected.
  • the aim of the present invention solves the above-mentioned problem of the prior art and achieves at least one of the following (1) to (6).
  • the aim (1) to (5) are in the following states: It is solved by a method having a tip.
  • An object in the video image displayed on the screen (hereinafter referred to as an object) is specified using an input device such as a pointing device (hereinafter referred to as a PD).
  • Video images can be input from a remotely located video camera or played back from storage media (optical video discs, video tape recorders, computer discs, etc.).
  • a pointing device for example, a touch panel, a tablet, a mouse, an eye tracker, a gesture input device, or the like is used.
  • a definable object in the video may be clearly displayed by a composite display of graphics.
  • the processing is performed based on the object specified by the object deciding step.
  • the contents of the processing include, for example, the following.
  • Switch video based on the specified object For example, operate a remote camera to make the specified object more visible. Camera orientation Move the to make the specified object appear in the center of the image, or to control the lens so that the specified object becomes larger or larger. Other examples include switching to a camera image that captures a specified object from a different angle, or a camera showing an object that is related to the specified object. Switch to a video.
  • -Display information related to the specified object For example, it displays the manual, maintenance information, structure drawing, etc. of the specified object.
  • Menus can also be represented by figures. That is, several figures are combined and displayed on the video, the combined figure is selected on the PD, and the following processing is executed based on the selected figure.
  • the aim (1) is a method comprising a step of graphically displaying an operating device for controlling the control target on or near the control target shown in an image. It is also resolved.
  • the aim (2) includes a search key designation step for inputting text or graphics to designate a search key, and a search key designation step for the search key designation step.
  • the aim (6) comprises: a video display step for displaying a video manually input from a video camera; and an area on the video displayed by the video display step.
  • a method having an area designation step for defining an area, and a processing definition step for defining a process in an area designated by the area designation step.
  • the operator gives operation instructions while watching the live-action video of the object. If there is any visible movement of the object according to the operation instruction, the movement is directly reflected in the camera image. In this way, by directly operating on the live-action video, the operator can remotely operate as if he were actually working on site. This allows the operator to intuitively grasp the target of the operation and the result of the operation, and reduce erroneous operations.
  • the graphics are combined and displayed as needed. For example, when the user specifies an object, a graphic display is used to clearly indicate which object was specified. As a result, the operator can confirm that the intended operation is being performed reliably. If multiple processes can be executed for the specified object, a menu for selecting the desired process is displayed. This menu may be composed of figures. By selecting a figure displayed as a menu, the operator can have a stronger sense of actually operating the object.
  • a text or a figure is input as a search key, and an image showing an object matching the input search key is displayed.
  • the text is input from a character input device such as a keyboard, a voice recognition device, or a handwritten character recognition device.
  • figures are entered using PD or data that has already been created in some way.
  • text or a figure in the video may be specified as a search key. If the image to be searched is a camera image, the camera is selected based on the search key, and the camera direction and lens are further controlled. Control so that the search key is reflected.
  • By appropriately combining graphics with an image showing an object that matches the search key it is possible to specify where in the image the part that matches the search key is located. Good. In this way, by displaying an image based on the search key, the operator can obtain the image to be viewed simply by indicating what he or she wants to see with words or figures.
  • FIG. 1A is a block diagram for explaining a conceptual configuration of the present invention.
  • FIG. 1B is a diagram for explaining the correspondence between each embodiment of the present invention and the conceptual configuration diagram of FIG. 1A.
  • FIG. 2 is a diagram showing an example of an overall configuration of a brand monitoring system according to an embodiment of the present invention to which a video or information processing method and apparatus according to the present invention is applied.
  • FIG. 3 is a diagram showing a hardware configuration of an example of the man-machine server in FIG.
  • FIG. 4 is a diagram showing a configuration example of a display screen in the plant operation monitoring system of the present embodiment. .
  • Figure 5 shows an example of the screen display form in the drawing display area of the display screen.
  • Fig. 6 is a diagram showing the correspondence between the screen display form of the video display area and the site.
  • FIGS. 7A and 7B show an example of setting camera parameters overnight by specifying an object.
  • FIG. 9 is a diagram showing an example of a setting of a lame.
  • Fig. 9 is a diagram showing an example of button operation by object specification.
  • FIG. 10 is a diagram showing an example of a slider operation by object specification.
  • 11A and 11B are diagrams each showing an example of an operation by selecting a figure. '
  • FIG. 12 is a diagram showing an example in which operable objects are clearly shown.
  • FIG. 13 is a diagram showing an example of video search using a search key.
  • Figure 14 shows an example of a 3D model.
  • FIG. 15 shows the relationship between the 3D model and the video on the screen.
  • Fig. 16 shows the relationship between points on the screen and the object.
  • FIG. 17 is a flowchart showing a procedure of an object identification process using a three-dimensional model.
  • FIG. 18 is a flowchart showing the procedure of a method of realizing the embodiment.
  • FIGS. 19A and 19B are diagrams showing the relationship between the two-dimensional model and the force curve.
  • Figures 20A and 20B show a two-dimensional model and another force lens. The figure which shows the relationship with a lame night.
  • Figures 21A and 21B show the relationship between the two-dimensional model and yet another force parameter.
  • Figure 22 is a diagram showing the procedure of object identification processing using a two-dimensional model.
  • Figure 23 shows the structure of the camera table.
  • Fig. 24 is a diagram showing the structure of force data.
  • Figure 25 shows the data structure of the area frame.
  • FIG. 29 is a diagram showing a configuration of a monitoring system according to another embodiment of the present invention.
  • FIG. 30 is a diagram showing a configuration example of the work station in FIG. 29.
  • FIG. 31 is a diagram illustrating a configuration example of the video and audio recording unit.
  • FIG. 32 is an illustration of an example of the display screen.
  • FIG. 33 is an explanatory diagram of an example of a trend graph displayed on the display.
  • FIG. 34 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIGS. 35A and 35B are explanatory diagrams of a video controller that determines the playback direction and speed of video and audio.
  • 36A to 36G are explanatory diagrams of a data structure of process data, video data, and the like used in another embodiment.
  • FIG. 37 is a flowchart showing an operation example of recording video and audio in the video and audio recording unit.
  • FIG. 38 is a flowchart showing an operation example of displaying the recorded video.
  • FIG. 39 is a flowchart showing an example of an operation for realizing another embodiment of the present invention.
  • FIG. 40 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 41 is a flowchart showing an operation example for realizing another embodiment of the present invention.
  • FIG. 42 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 43 is a flowchart showing an operation example according to another embodiment of the present invention.
  • FIG. 44 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 45 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 46 is a flowchart showing an operation example for realizing another embodiment of the present invention.
  • FIG. 47 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 48 is a flowchart showing an operation example for realizing another embodiment of the present invention.
  • FIG. 49 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 50 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 51 shows a display display according to another embodiment of the present invention.
  • FIG. 52 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 53 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 54 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 55 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 56 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 57 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 58 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 59 is an explanatory diagram of a display display in another embodiment of the present invention.
  • FIG. 60 is an explanatory diagram of a method of determining a selection target in the control unit according to another embodiment of the present invention. '
  • FIG. 1B is a diagram showing the correspondence between the components of this conceptual diagram and the components of the first and second embodiments described later.
  • the object information storage unit stores Information (object position, shape information, control information, manual information) about various devices (objects) in the plant reflected in the video output from the power section (video shooting / recording Z playback section). Information, design information, etc.). In the following, all devices and devices to be operated and monitored are collectively referred to as objects.
  • the video output unit outputs the video in the currently shooting plant and the video recorded in the past.
  • the graphics generation unit outputs the system diagram of the plant, control information of each object, manual information, and the like as graphics.
  • the graphics output from the graphics generation unit and the video output from the video output unit are combined by the video Z graphics combination unit and displayed on the display unit.
  • the object identification processing execution unit proceeds to the designated position and the object information stored in the object information storage unit.
  • the object displayed at the specified position on the display unit is identified based on the object information.
  • the object identification processing execution unit executes processing corresponding to the identified object.
  • the video output unit is controlled to display an image related to the identified object on a display unit, or control information related to the object is acquired from an object information storage unit.
  • the graphics generation unit is controlled to display the retrieved information graphically on the display unit. That is, in FIG. 1A, the object information storage unit is a display unit.
  • Information about the object that appears on the screen A portion surrounded by a dashed line is a process related to the object based on the information (for example, information in the object information storage unit corresponding to the information specified by the screen position indicating unit). Identification processing and processing for displaying graphics based on the information).
  • the information about the object includes, in the first embodiment, graphic information and position information on the object, and in the second embodiment, information for controlling the object. It indicates data (control data or control information), sound or video data related to an object, and indicates information that associates control data with sound or video data.
  • a portion surrounded by a dashed line in the second embodiment associates the control data with the sound or video data based on the associated information.
  • reference numeral 10 denotes a display as a display means for displaying graphics and images
  • reference numeral 12 denotes a pressure-sensitive switch panel as an input means mounted on the entire surface of the display 10.
  • Reference numeral 14 denotes a speaker for outputting sound
  • reference numeral 20 denotes a man-machine server which provides a machine for the operator to monitor the brand and perform driving operations
  • reference numeral 30 denotes a man-machine server.
  • Has multiple video inputs and A switch for selecting one video input and one audio input from a plurality of audio inputs and 50 are used to control devices in the plant or to receive data from a sensor.
  • a control computer that collects evenings, 52 is an information-related local area network that connects the control computer 50 to the machine server 20 and other terminals and computers (Hereinafter referred to as LAN) (for example, LAN as defined in IEEE 802.3), 54 connects the control computer 50 to various devices to be controlled and various sensors.
  • Control LAN for example, a LAN as defined in IEEE 802.4
  • 60, 70, and 80 are located at various places in the brand, and objects to be controlled
  • An industrial video camera hereinafter simply referred to as an ITV camera) for inputting and inputting images
  • 62, 72, and 82 are control computers 50 or ⁇ Tsu to command! : Controllers for controlling the directions and lenses of the cameras 60, 70, 80, respectively.
  • the cameras 64, 74, 84 are cameras 60, 70, 80, respectively.
  • Microphones 90, 92 are various sensors for knowing the status of each part of the plant, 94, 96 are various sensors in the plant according to the instructions of the control computer 50. It is an event to control the equipment.
  • the pressure-sensitive touch panel 12 is a type of PD. Press any position on the evening touch panel 1 2 with your finger to report the pressed position coordinates and the pressed pressure to the machine server.
  • the evening touch panel 12 is mounted on the entire surface of the display 10. Evening touch panel 1 2 is transparent, and evening touching. After flannel 1 2 You can see the contents of the display 10 on the screen. Thus, the operator can specify the object displayed on the display 10 as if touching it with a finger.
  • three types of operations of the evening touch panel 12 are used: (1) light pressing, (2) strong pressing, and (3) dragging. Dragging refers to moving the measure while holding down the evening touch panel 12 with a finger.
  • the pressure-sensitive touch panel is used as the PD, but another device may be used. For example, a non-pressure-sensitive touch panel, evening tablet, mouse, light pen, eye tracker, gesture input device, keyboard, or the like may be used.
  • a plurality of images shot by the cameras 60, 70, and 80 are selected by the switcher 30 and displayed on the display 10 via the machine server 20.
  • the man machine 20 controls the switcher 30 via a communication board such as RS232C, and selects a video from a desired camera.
  • a communication board such as RS232C
  • the input sound from the microphones 64, 74, 84, etc. is selected at the same time.
  • the sound is also switched to the input from the microphone attached to the camera.
  • the audio input from the microphone is output from speakers 14.
  • the MAN 20 can combine graphics with the video from the camera.
  • the man machine server 20 is connected to the control system via the information LAN 52. Send operation commands to the computer to specify the camera's shooting direction, posture, angle of view, and position.
  • the camera's shooting direction, posture, angle of view, position, etc. Let's call the night of lame a night of power.
  • the man machine server inputs data from the sensors 90, 92, etc., via the control computer 50 according to an operator's command, and executes an operation.
  • D Remotely control 94, 96, etc. The man machine server 20 controls the movement and functions of various devices in the plant by sending operation commands to the actuary.
  • 300 is a central processing unit (CPU)
  • 310 is a main memory
  • 320 is a disk
  • 330 is a PD
  • reference numeral 340 is for graphics for storing display data generated by the CPU 300.
  • the frame buffer, 360 is a digitizer that converts the input analog video information into digital data.
  • Reference numeral 37 0 denotes a video frame buffer for storing digitized video information, which is an output of the digitalizer 360.
  • 380 is a display that combines the contents of the graphic frame buffer 340 and the video frame buffer 370. This is a blend circuit indicated by 10.
  • the video information input from the camera is combined with the graphics generated by the machine server 20 and then displayed.
  • the graphics frame for the graphic 340 has red (R), green (G), and blue (B) corresponding to each pixel on the display 10. It has data for each color and data called binary values.
  • the ⁇ value is obtained by synthesizing the video information in the video frame buffer 370 with the graphic display data in the graphic frame buffer 340. The method is specified for each pixel on the display 10.
  • the function of the blend circuit 380 is
  • g and ⁇ are the color information and ⁇ value of one pixel in the graphic frame buffer 340, respectively, and V is the video frame buffer 370 in the video frame buffer 340. Is the color information of the pixel at the position corresponding to g, and d is the color information of the pixel resulting from the combination of g and V.
  • the following equation is used as the function f.
  • the graphics frame buffer 340 has a configuration called a so-called double noise buffer.
  • the double buffer has two screen buffers, and the buffer to be displayed on the display 10 can be selected at any time.
  • display The buffer that is displayed at 10 is called the front buffer, and the buffer that is not displayed is called the back buffer. Switching between the front buffer and the back buffer is instantaneous. By drawing graphics on the back buffer and switching the back buffer to the front buffer when drawing is completed, the flicker during drawing is reduced. it can. Both buffer contents can be read and written from the CPU at any time.o
  • a method is used in which video information is digitized within the man machine 20 and then combined with graphics.
  • an external device that synthesizes information and graphics at the level of an analog signal, the video signal output from the camera 20 and the video signal from the camera 60 are output. It is also possible to combine the signal with a television signal and display it on the display 10.
  • Devices that combine a computer such as a man-machine computer with a TV signal from a camera such as a camera (referred to as a video compositing device) are already on the market. .
  • the graphics and the video are displayed on the same display (display 10), but they may be displayed on separate displays.
  • a graphics terminal is connected to the man-machine sensor 20 via the information LAN 52, and the image information from the force camera is displayed on the entire surface using the image synthesizing device.
  • Graphics generated by the machine server 20 are mainly used for display. Display in 1 0.
  • the graphic terminal will be equipped with a pointing device such as a touch panel or mouse similar to the pressure-sensitive touch panel 12.
  • the man machine 20 outputs graphics information to a graphics terminal according to a predetermined protocol. Graphics can be superimposed on the video displayed on the terminal. By displaying video information on a different graphics terminal than the display 10 in this way, more graphics information can be displayed on the display 10. become able to.
  • Fig. 4 shows an example of the display screen configuration of the display 10.
  • 100 is the display screen of the display 10
  • 110 is a menu area for specifying commands relating to the entire system
  • 1 50 is a data display area for displaying data from the sensor and various materials and data related to the brand.130 is the entire plant and the configuration diagram of each part.
  • 200 is an image display area for displaying images input from the camera.
  • FIG. 5 shows an example of the display form of the drawing display area 130.
  • 13 2 is a menu for issuing a command specifying the location of the sensor
  • 13 4 is a single object on the drawing specified by the operator. is there.
  • the operator selects an object in the drawing displayed in the drawing display area 130
  • the sensor associated with the object is selected.
  • Information from the user is displayed on the data display area 150 or the video display area 200. For example, if a camera is defined as a sensor related to a specified object. An image input from the camera is displayed in the image display area 200.
  • FIG. 5 shows that the display position of object 134 is strongly pressed with a finger.
  • the object 13 4 has a camera 60 reflecting the object 13 4 and a microphone for inputting the sound around the object 13 4.
  • the object 64 is defined as an associated sensor, and if the object 134 is specified, the image displaying the object 134 is displayed in the image display area 200. This is displayed, and the sound around object 134 is output from speaker 14.
  • Fig. 6 shows one display form of the video display area 200 when the object 13 4 is specified on the drawing display area 130, and the object 1 arranged in the plant. Correspondence with 3 4 Show the person in charge.
  • reference numerals 202 to 210 denote menus for setting the camera parameters of the camera that is currently capturing the currently displayed video
  • 220 denotes a menu within the video. This menu is for specifying the objects that can be specified.
  • Reference numeral 202 denotes a menu for setting the direction of the camera. (By selecting menu 202, the camera can be moved right and left, up and down, and up and down. 204 is a menu for controlling the angle of view of the power camera to zoom in the image, and 206 is a menu for controlling the angle of view of the camera to zoom the image. A menu for resetting the camera, 208 is a menu for resetting the power meter to the previous power meter, and 210 is the first camera parameter. Menu This menu is for resetting the settings overnight.
  • Reference numerals 400 to 424 denote various objects accompanying or surrounding the object 134.
  • 400 is a valve
  • 410 and 420 are characters displayed on the object 134
  • 41 is a meter indicating voltage
  • 414 is a switch for turning on the power.
  • the button, 416 is a button for turning off the power
  • 422 is a menu showing oil pressure
  • 424 is a slider knob for adjusting the oil pressure.
  • knobs 4 2 4 are operating devices that can be actually operated by hand, and can be remotely controlled by issuing operation commands from the machine server 20. This is a controller that can also be operated.
  • FIGS. 7A and 7B show the image display area 200. If the finger is lightly touched on the menu 412, the camera is set so that the menu 412 is in the middle of the image. This shows how the parameters are set. As shown in FIG. 7A, when the operator designates the meter 412, the orientation of the camera 60 is set so that the meter 412 is displayed in the center of the image, and furthermore, Then, the lens of the camera 60 is controlled so that the meter 4 12 is zoomed in, and the image changes as shown in FIG. 7B. By simply touching an object on the screen, the operator can set the camera parameters so that the object can be seen more clearly.
  • reference numeral 502 denotes a graphic echo for clearly indicating that the meter 412 is specified.
  • Graphic echo 502 is a touch panel 12 for the operator. When you remove your finger from, it is erased. In this way, by combining the graphic display on the camera image, the machine interface can be improved.
  • FIGS. 8A and 8B show the image display area 200.
  • the camera works so that the knob 400 is in the middle of the image. This shows how is set.
  • the valve 400 is designated by the operator as shown in FIG. 8A
  • the image changes so that the valve 400 is largely displayed in the center as shown in FIG. 8B.
  • 504 is a graph for clearly indicating that valve 400 has been designated. It is a quick eco.
  • the graphic echo '504 is deleted when the operator removes his / her finger from the touch panel 12. The same operation can be performed for the other objects 410, 414, 416, 420, 422, and 424.
  • Figures 9 to 11 show examples of manipulating objects.
  • FIG. 9 shows an example of operating the buttons 414.
  • the button 4 which is located at a distance from the man machine server 20 via the control computer 50 is pressed.
  • An operation command to push down button 4 14 is sent to Actuyue who operates 14 and the button 4 14 at a remote site is actually pushed down.
  • the state in which the button 414 is depressed and the needle of the meter 412 touches as a result is displayed on the image display area 200 by the camera 60. As a result, the operator feels as if the button was actually pressed down on the screen.
  • FIG. 10 shows an example of operating the slider knob 4 2 4 by dragging a finger on the touch panel 12.
  • the button 4 1 4 is displayed at the position where the button 4 1 4 is displayed with strong finger pressure, move the finger to the side. It moves together.
  • the needle of meter 4 2 2 also moves.
  • a command is issued to the actuator who controls knobs 4 2 4 via the control computer 50, and the knobs 4 2 4 are actually moved in accordance with the movement of the finger.
  • the operator has a feeling that the knob 4 2 4 is actually moving with his / her finger.
  • the advantages of directly operating the operating devices 4 14, 4 2 4, etc. shown in the image are as follows. You can operate as if you were on site. The video can convey the layout of the equipment at the site and the atmosphere (shape, color, etc.) of the equipment as they are. For this reason, it is easy to guess, learn, and recall the function of each device and what will happen if you operate it. For example, in FIG. 9, it can be easily guessed that pressing the button 4 14 ⁇ turns on the device 13 4.
  • the actuator is represented by graphics.
  • abstraction, simplification, and exaggeration are performed, making it difficult to associate actual devices with the graphics representation.
  • the graphics Due to the limited screen size, the graphics are placed independently of the actual placement of the equipment on site. For this reason, the graphic operating device is It is difficult to intuitively understand how to control the vessel.
  • the operation results are also represented by graphics, it is difficult to intuitively identify abnormalities.
  • FIG. 11A shows an example of manipulating an object by manipulating a graphic compositely displayed on or near the object to be operated.
  • graphics 5100 and 5200 are graphics that are superimposed and displayed on the image when the operator presses the display position of valve 400 with a finger. is there.
  • the machine server 20 gives an operation finger to the actuator via the control computer 50, and the valve 40 is pressed. Rotate 0 to the left.
  • the machine server sends an operation command to rotate the valve 400 rightward to the factory.
  • the rotation of the valve 400 is photographed by the camera 60 and displayed on the image display area 200.
  • the display of graphics 5 10 and 5 12 may be rotated in accordance with the rotation of valve 400.
  • the graphics displayed on the screen for operation such as figures 510 and 511, will be referred to as graphics operators.
  • FIG. 11B Another example of a graphics control device is shown in Figure 11B.
  • reference numeral 426 denotes a pipe connected to the lower part of the object 134
  • reference numeral 800 denotes a slider which is displayed as a graphic on the video
  • reference numeral 8 denotes a slider.
  • 10 is the operation knob for slider 800
  • 4 is the knob.
  • the change in the flow rate in the pipe 426 is indicated by the graphics displayed on the eve 426.
  • the slider 800 is synthesized and displayed near the pipe 426.
  • a graphic 428 showing the current pipe flow rate is
  • the width and the color of the graphics 428 change, for example, according to the flow rate in the eve 426.
  • the width increases as the flow rate increases, and the width decreases as the flow rate decreases.
  • the advantage of combining and displaying the graphic operation device on or near the device shown in the surveillance video is as follows.
  • the graphic operating device is placed on the screen independently of the on-site equipment. It was difficult to tell which device on the site was actually controlling. In addition, the location where the graphic operation device was displayed was far from the location where the monitoring video of the site was displayed, so the user moved his / her gaze many times to operate while watching the site. I had to do it.
  • the graphics 426 are combined and displayed on the image of the pipe 426 to show the flow rate of the pipe 426.
  • the graphics 426 are combined and displayed on the image of the pipe 426 to show the flow rate of the pipe 426.
  • the internal state of the device You.
  • the internal state and the external state of the device can be simultaneously referred to, and the state of the device can be comprehensively monitored and determined.
  • Figure 12 shows how to specify operable objects. Not everything in the video is operable Therefore, there is a need for a means to specify the operable object.
  • FIG. 12 when the menu 220 is lightly touched with a finger, graphics 514 to 524 are displayed.
  • the graphics 514 to 524 are operable by the objects 400, 412, 414, 416, 422, and 424, respectively. Is specified.
  • the extrapolated rectangle of the object is displayed.
  • various other display methods are conceivable for specifying the object, such as displaying graphics that are closer to the real object.
  • a means for specifying not only operable objects but also all objects may be separately provided. For example, when the menu 220 is strongly pressed with a finger, all the objects shown in the image may be clearly displayed.
  • the object observing means described above can not only clearly indicate the operable objects, but also operate and perform operations even when, for example, smoke or vapor that obstructs the view is generated. Enables investigation of the cause. Even if the object to be operated is smoked, the object to be operated is clearly indicated by the graphics, so that the operation can be performed. In addition, since it is possible to know where and what equipment is located, it is possible to identify the source of smoke.
  • Figure 13 shows an example of inputting text and searching for a video in which the text is displayed.
  • reference numeral 530 denotes graphics synthesized and displayed on a video
  • 600 denotes a search sheet for executing a text search
  • 610 denotes a search sheet for performing a text search.
  • the next menu to search for another video that matches with the search key, 62 0 is the end menu to specify that the search should end, and 63 0 is input to the search key
  • This is a text input area for inputting text.
  • a search sheet 600 is displayed on the display screen 100. Enter the search key in the text input area 630 from the keyboard and press the return key to start the search.
  • the man-machine sensor searches for a camera that can display an object including a search key.
  • the searched camera is set as a camera work so that the search key can be clearly seen.
  • the video from the searched camera is displayed in the video display area 200.
  • the graphics 530 are composited and displayed on the part that matches the search key in the video, and the part that matches the search key is specified.
  • video search using text as a search key the operator can verbally project the object to be monitored. With this method, it is possible to quickly find a target without switching cameras or remotely controlling the camera.
  • a keyboard is used for inputting text, but other input means such as a voice recognition device or a handwritten character recognition device may be used.
  • text is used as a search key, but a figure is used as a search key, and an image in which a figure matching the figure of the search key is displayed is searched. You may do so.
  • the implementation method of this embodiment will be described with reference to FIGS. 14 to 25. I do.
  • the main function of the present embodiment is a function of designating an object in a video and executing an operation based on the object.
  • Figure 18 shows a flowchart of a program that implements this function.
  • the object can be identified (if the object exists at the event position) (step 11010), it is defined corresponding to the object
  • the object reflected at the event position is identified by referring to the shooting target model and the camera parameters.
  • the model to be photographed is data on the shape and position of the object to be photographed.
  • the model to be photographed is stored in the disk 320 of the machine machine 20 ', and when the plant operation monitoring system is operating, the main memory
  • Power camera parameters are data on how the camera captures the object to be captured, i.e., the camera position, attitude, angle of view, and orientation. is there. You can find the current value of the camera's current setting for the camera by inquiring the camera control controller. Of course, you can manage the camera over night with a man machine. That is, the main memory of the man machine server 20 is added to the main memory 310. Current value of Lame Every time the machine server 20 remotely controls the camera, the main memory stored in the main memory 310 is secured. Update the value of Lame overnight. Of course, during the operation of the plant operation monitoring system, the parameters of all cameras should be initialized from the machine server 20.
  • a model in which the shape and position of the shooting target are defined in a three-dimensional coordinate system is defined in a three-dimensional coordinate system.
  • the advantage is that objects can be identified corresponding to arbitrary camera parameters. In other words, the user can operate the object while freely operating the camera.
  • model creation and object identification are more complicated than two-dimensional (2D) models because the model must be defined in three-dimensional space.
  • 2D two-dimensional
  • the advantage is that model creation is easy. Shape on screen
  • the model can be defined in the same way as drawing.
  • the disadvantage is that it can only be operated on the images of the force parameters for which the model has been defined in advance. How to increase the freedom of camera operation. More power. Each night, it is necessary to define the shape and position of the object on the corresponding plane. In many operation monitoring systems, the number of places to be monitored is determined in advance in many cases. In such a case, the camera parameters are determined several times, so the disadvantages of the two-dimensional model do not matter.
  • FIG. Fig. 14 shows an example of modeling the imaging target of the force camera 60 shown in Fig. 6 in a three-dimensional rectangular coordinate system xyz (called the world coordinate system).
  • the shape of each object is modeled as a plane, a rectangular parallelepiped, or a cylinder.
  • more types of three-dimensional basic shapes such as a sphere and a tetrahedron may be used.
  • not only a combination of basic shapes but also a more precise shape model may be used.
  • the objects to be manipulated are 400, 4104, 1241, 41, 46, 420, 42, and 42, respectively. 0, 8 1 2,
  • the camera captures objects placed in three-dimensional space in two dimensions. This is an operation of projecting onto a plane (video display area 200). That is, the image displayed in the image display area 200 is a perspective projection of an object arranged in a three-dimensional space on a two-dimensional plane. If the two-dimensional rectangular coordinate system XsYs taken on the screen is referred to as the screen coordinate system, the camera captures one point (x, y, ⁇ ) on the world coordinate system. It can be formulated as equation (1) that maps to a point (Xs, Ys) on the coordinate system.
  • the matrix T in Equation (1) is called a view transformation matrix.
  • O Each element of the view modification matrix T is a camera ⁇ . It is uniquely determined given the radiator (position, orientation, orientation, angle of view) of the force camera and the size of the video display area 200. Camera parameters are given in the world coordinate system. In Fig. 15, the position of the force camera is the coordinates of the center Oe of the lens, the posture of the camera is the vector 0 eYe, the direction of the camera is the vector OeZe, Corresponds to.
  • the object identification process is a process for determining which point on the world coordinate system is projected to the point P on the screen coordinate system when a point P on the screen coordinate system is designated.
  • the center 0e of the lens of the force camera and the screen coordinate system All points on the extended di of the straight line connecting the point P above are projected to the point P.
  • the point actually projected on the image display area 200 by the camera is the object 1 closest to the center 0 e of the lens and the straight line.
  • an intersection P 1 between the object 1 and the straight line 840 is projected onto a point P on the video display area 200 by the camera. That is, if the event position is P, object 1 will be identified.
  • the technology for obtaining the view transformation matrix T from the camera lab data and the technology for perspectively projecting and displaying the model defined in the world coordinate system on the screen coordinate system based on the view transformation matrix T are graphigraphy. This is a well-known technology in the field of electronics. Also, in perspective projection, the process of projecting the surface of an object close to the camera on the screen and not projecting the surface hidden by the camera by other objects on the screen A number of algorithms have already been developed, called hidden surface e 1 imi nation or visible surface determination. These technologies are described, for example, in "Computer Graphics Principles and Practice” by Fo 1 ey. VanDam. Feiner. Hughes, published by Addison Wes 1 ey.
  • an object identification process is performed by using these graphic functions.
  • the surface of the object to be operated is color-coded in advance so that the object to which the surface belongs can be identified by the color. .
  • the color set for each object is called an ID (identofier) color.
  • Figure 17 shows the procedure of the identification process using this ID-colored three-dimensional model.
  • the current camera parameters are queried (step 1300), and a view transformation matrix is set based on the queried camera parameters (step 1310).
  • the sensor always manages the current camera state in the camera 20.
  • the camera parameter is returned according to the current camera state. .
  • the current camera state may be managed by a force camera control controller.
  • the model that is color-coded based on the view transformation matrix set in step 1310 is placed in the back buffer of the graphics frame buffer 340.
  • draw. In this drawing, perspective projection and hidden surface removal processing are performed. You. The drawing result is not displayed on the display 10 because it is drawn on the back buffer.
  • the pixel value of the back buffer corresponding to the event / bottom position is read out (step 1330).
  • the pixel value is the ID color of the object projected at the event position.
  • the ID color has a one-to-one correspondence with the object, so that the object can be identified.o
  • FIGS. 19A to 25 A method of identifying an object based on a two-dimensional model will be described with reference to FIGS. 19A to 25.
  • the position and shape of the object after being projected from the world coordinate system to the screen coordinate system are defined. If the direction or angle of view of the camera changes, the position or shape of the object projected on the screen coordinate system changes. Therefore, in a two-dimensional model, it is necessary to have data on the shape and position of the object for each individual camera parameter.
  • the object is modeled by a rectangular area.
  • an object in a certain camera / parameter is represented by the position and size of a rectangular area in the screen coordinate system.
  • it may be modeled using another figure (for example, a polygon or a free curve).
  • Figures 19A, 19B, 20A, 20B, and 21A and 21B show the correspondence between the camera parameters and the two-dimensional model.
  • Figures 19A, 20A, and 21A show the display format of the video display area 200 for each camera parameter.
  • each figure 19B, 20B, 21B has individual power; ,.
  • the 2D model of the object corresponding to the parameter is shown.
  • the objects 410, 4122, 4114, 4166, 420, 422, 424 on the image are the two-dimensional objects in Fig. 19B.
  • they are represented as rectangular areas 710, 712, 714, 716, 7220, 7222, and 724, respectively.
  • a collection of rectangles that model an object corresponding to one camera parameter overnight is called an area frame.
  • Power melano A collection of rectangles that model an object corresponding to one camera parameter overnight is called an area frame.
  • Area frame 1 corresponding to parameter 1 is composed of rectangular areas 710, 712, 714, 716, 722, 722, and 724.
  • Figures 208, 208, 21A, and 2IB show examples of area frames for different camera parameters. In FIGS.
  • the area frame 2 corresponding to the camera parameter is composed of a rectangular area 740, 740, 746, and 748.
  • the rectangular areas 740, 742, 746, and 748 correspond to the objects 412, 416, 424, and 422, respectively.
  • the area frame 3 corresponding to the force melano and the zero lamella 3 is composed of a rectangular area 730.
  • the rectangular area 730 is the same object corresponding to the object 400, but corresponds to another rectangular area if the camera parameters are different.
  • the object 416 corresponds to the rectangular area 716 at the time of the camera parameter 1 and corresponds to the rectangular area 714 at the time of the camera parameter 2.
  • Figures 23, 24, and 25 show the data structure of the two-dimensional model.
  • 1300 corresponds to each camera. This is a force table that stores the data.
  • the Power Data Table 1300 contains a list of camera parameters that can be operated on the objects in the video, as well as individual cameras. The data of the area frame corresponding to the parameter is stored.
  • 132 is the data structure of the camera parameters.
  • the data of the camera parameter overnight is the horizontal angle, which is the horizontal direction of the camera, the vertical angle, which is the vertical direction of the camera, and the angle of view which indicates the degree of zoom. It becomes.
  • the camera posture and the camera position are fixed. If the camera's attitude and camera position can be controlled remotely, the data for controlling them is also available. It should be added to the lame night. Power melano ,.
  • the parameter 1320 is used to set the camera to a new, pre-defined camera parameter. That is, the man machine 20 sends the camera parameters to the camera control controller and remotely controls the camera.
  • the camera parameters 1320 are not directly required for the object identification process.
  • Figure 25 shows the data structure of the area frame.
  • the area frame data consists of the number of areas constituting the area frame and data on each rectangular area.
  • the area data includes the position (X, y) of the rectangular area in the screen coordinate system, the size of the rectangular area (w, h), the active state of the object, and additional operation information.
  • the active state of an object is Data indicating whether the project is active or inactive. When an object is inactive, the object is not identified. Only active objects are identified.
  • the operation includes an event Z operation correspondence table.
  • the pointer to 1340 is stored.
  • the event operation correspondence table 1340 stores the operation to be executed when the object is specified by the PD, in a pair with the event.
  • the event specifies the operation type of the PD.
  • the event differs when the pressure-sensitive touch panel 12 is pressed strongly and lightly.
  • the additional information of the area frame stores a pointer to additional information 135 of the object, which cannot be represented by a rectangular area alone.
  • additional information For example, the text, color, object name, and related information drawn on the object (for example, device manuals, maintenance information, design data, etc.). This allows you to search for an object based on the text drawn on the object, and to display relevant information about the specified object.
  • Figure 22 shows the procedure for identifying an object using a two-dimensional model.
  • First respond to the current camera Search for the area frame to be saved from the input data frame 1300 (step 12000).
  • an area including the event position is searched from the areas constituting the area frame. That is, the data of the position and size of each area stored in the area frame data is compared with the event position (step 122 0), and the event If an area at the position is found, the number is returned to the higher-level processing system.
  • the higher-level processing system checks whether or not the found area is in the active state, and if it is in the active state, executes the operation defined in response to the event.
  • Step 122 0 is repeated until an area including the event position is found, or until the entire area within the area frame has been examined (step 122 0). .
  • the 2D model is defined using a 2D model definition tool.
  • the 2D model definition tool has the following functions. (1) Camera selection function
  • This function is a function of selecting an arbitrary camera arranged on the plant and displaying an image from the camera on a screen. There are following methods for selecting a camera.
  • Camera work setting function This function has a function of remotely controlling a force selected by the camera selection function and setting a direction and an angle of view of the lens.
  • This function is to create a figure on the image displayed on the screen. Drawing is done by combining basic figure elements such as rectangles, circles, polygonal lines, and free curves. With this function, the outline of the object is drawn with the image of the object underneath.
  • This function is a function that specifies at least one figure drawn by the figure drawing function and defines a pair of event Z movements for it.
  • An event is defined by selecting a menu or entering the event name as text.
  • the action is selected from a menu of predefined actions or described using a description language. Examples of such description languages include IPSJ Transactions, Vol. 30, No. 9,
  • UIDL defines an event Z action pair in the following format event Event name (thousands).
  • Event name specifies the type of operation performed on the O area on the screen defined by the figure.
  • the event names and the corresponding operations when using the E-touch panel 12 are shown below. If you use a mouse or other device as the pointing device, you will need to specify a different event name.
  • h ard-0ff An event that occurs when the finger leaves the fingertip after strongly touching the evening touch panel 12.
  • “Device” specifies which device generated the event when there are multiple devices that generate the same event. For example, if the mouse has two buttons on the left and right, specify which button is the event that originated from the button. In the present embodiment, the device that generates the above event is not specified because there is only the pressure-sensitive panel 1; 2. “Action” defines the processing to be performed when the operation corresponding to “Event name” is added to the area defined by the figure. “Action” refers to a basic action prepared in advance, using the same syntax (branch, jump, recall, and procedure) as in a normal programming language (eg, C language). Definition, procedure call, etc.). An example of the basic operation is shown below.
  • the video of the camera specified by the argument e arn e ra is displayed in the area on the display screen 100 specified by the argument r egi on.
  • the two-dimensional model definition tool creates a two-dimensional model according to the following procedure.
  • Step 1 Specify Camera and Camera Work
  • the camera is selected using the camera selection function and the image is displayed on the screen.
  • the camera work is set using the camera work setting function (2), and an image of a desired place is obtained.
  • Step 2 Define the outline of the object
  • Step 3 Define event 1 and action pairs
  • step 2 Using the ('4.) event Z action pair definition function, at least one figure drawn in step 2 is selected to define an event / action pair.
  • Step 4 Save the definition contents Save the definition contents as necessary.
  • the definition is stored in the data structure shown in Fig. 23, Fig. 24 and Fig. 25. Create a 2D model for another camera or another camera work
  • the 2D model definition tool can be implemented on the man machine '20 and displayed on the display 10 or on a completely different workstation.
  • no ,. -It may be implemented on a computer console, and the defined two-dimensional model may be transferred to the machine server 20.
  • Figure 26 shows an example of the two-dimensional model definition tool described above.
  • 150 is a two-dimensional model definition tool
  • 1501 is a text input field for inputting the name of an area frame
  • 1502 is a text input field.
  • a menu for drawing and editing area frames by combining basic figures (straight lines, rectangles, ellipses, arcs, polygonal lines, polygons), and defining menus for operations on them.
  • a management menu for saving and changing the area frame 1504 is a menu for selecting a key
  • 1505 is a menu for selecting a menu.
  • the menu for panning and zooming by remote-controlling the force razor selected in 04 1510 is the menu 1504 The area where the image of the selected force is displayed and the area frame is overlaid on the image.
  • a rectangle drawn in the area 1510 to be transformed, and 1512 is a position coordinate input from a mouse, sunset panel, or other pointing device. It is a pointer that works in conjunction with In the following, a mouse with two buttons on the left and right will be used as a pointing device. Do not move the mouse while pressing the mouse button.Dog, press and release the button without moving the mouse button. Clicking and clicking twice consecutively is called a double click.
  • the function of each item in the menu-1502 is as follows.
  • Straight line Function to draw a straight line. After selecting this item, if you drag the mouse in the area 1510, the position at the beginning of the drag and the position at the end of the drag A straight line is drawn connecting the positions of 1 and 5 1 2.
  • Rectangle Function to draw a rectangle. After selecting this item, if you drag the mouse in the area 1510, the position at the start of the drag and the position at the end of the drag A rectangle with the diagonal vertices at the position of the evening 1 5 and 1 2 is drawn. After selecting this item, if you drag the mouse in the area 1510, the position at the start of the drag and the position at the end of the drag An ellipse inscribed in a rectangle whose diagonal line is between and The circle and (including the circle) are drawn.
  • Polyline Function to draw polygonal lines. After selecting this item, repeat the movement of the mouse and the mouse in the m area 1510, and click twice at the same position at the end. A polygonal line is created by connecting the positions of pointers 1 5 1 and 2 with a straight line in succession.
  • Polygon Function to draw a polygon. After selecting this item, repeatedly move and click the pointer 1512 in the editing area 1510, and finally click twice at the same position.
  • a polygon is created by sequentially connecting the positions of pointers 1512 when they are clicked with a straight line, and connecting the last point and the first point with a straight line.
  • Delete The figure specified by the pointer 1512 is deleted, and at the same time, the figure is stored in a buffer (called a pasted buffer).
  • Copy Copy the figure specified by pointer 15i2 to the paste buffer.
  • Paste The contents of the paste buffer are drawn at the position of the pointer 1512 when the mouse was most recently clicked.
  • Group Group multiple shapes specified by pointers 1512. The grouped multiple figures are treated as one figure thereafter. To model a single object using multiple figures, group those figures. If this item is selected when only one grouped figure is specified, the specified gel Dissolve the loop and return to multiple shapes of and
  • Action Calls an action definition entry for defining an event and operation on the figure specified by the link 1512.
  • the function of each item of Menu 1; 03 is as follows.
  • New Define a new area frame.
  • Save Saves the defined area frame under the name specified in the input field 1501, camera / force camera. Save it together with Lame Night.
  • menus 1505 to 1509 are as follows.
  • New1505 Pan the force camera up, down, left and right.
  • Menu 1506 Zoom in the camera.
  • Menu 1 507 Zoom out the camera.
  • Znu — 1 5 0 8 Set the force to the previous force slip parameter.
  • Menu 1! 3 () 9 The value of the camera parameter when saved last (selecting “Save” on page 15 of menu 15 () 3). Set.
  • the model definition tool 1500 combines the basic shapes (straight lines, rectangles, ellipses, arcs, polygonal lines, and polygons) to create
  • Model the jet That is, an object projected onto a screen coordinate system by a certain camera radiator is represented by the position and size of one or more basic figures.
  • the model of the Xobuji X-Cut is defined in the way of drawing the outline of the object shown there under the image displayed in the area 1510. Draw an outline of the object in the same way as drawing using a normal drawing tool. Select a desired basic figure according to menu 1502, and specify the size and position of the selected basic figure using pointer 1512 on area 1510 And a basic figure is drawn on the area 1510.
  • object 4 14 is modeled by rectangle 1511.
  • One or more figures that model a certain object will be called a model object.
  • the operation is defined in the drawn figure, that is, the model object X-cut.
  • the action is defined using the action definition sheet. New 1 5 0 2
  • the operation definition sheet is opened as shown in Fig. 27.
  • 1602 is a menu for managing the object 160 ⁇
  • 1603 is a field for manually inputting the object name
  • 1604 is a menu for selecting the type of event
  • 1605 is a basic operation defined in the object.
  • the menu to be selected, 1606, is an area for describing the event-action pair using the description language UIDL.
  • the type of event and the basic operation of the object can be selected from menus 164 and 165, respectively.
  • menus 164 and 165 are selected, the selected event name or basic operation name is input to the input position of area 166. This eliminates the need to enter the event name and the basic operation name from the keyboard, thereby reducing the operation description effort.
  • End Ends the operation definition sheet and returns control to the model definition tool 1500.
  • FIG. 27 shows a state in which the behavior is defined in a shape 1511 1 that models the object 4 14.
  • "Power On Button” is input as the object name of the figure 1511.
  • the area 166 6 contains “Og If it is strongly touched, it calls a procedure called Remote Power On 0 ".”
  • model definition tool 1500 When the model definition is completed, select the item “Save” in menu 1503 and save the definition contents in the data structure shown in Fig. 23-25.
  • the model definition tool 1500 When the model definition tool 1500 is running on a man machine 20, it is recorded in the main memory 310 and the disk 320.
  • Figure 28 shows an example of displaying a description of an object near an object.
  • reference numerals 222 and 222 denote graphics indicating the names of the devices of the objects 518 and 524, respectively, and notes on their use.
  • the structure inside the object which cannot be projected with a force camera, is combined with the object in the image.
  • the state of the water flow in the pipe is simulated based on data obtained from other sensors, and the result is combined and displayed on the pipe shown in the actual video.
  • graphics representing the state of the flame in the boiler are combined with the boiler in the video. indicate.
  • images shot with a normal camera are used.
  • special cameras such as an infrared camera, a camera with a fish-eye lens, and a thermograph
  • the present invention can be applied to a video photographed in the above or a video after image processing.
  • the effect of this embodiment is that at least one of the following (1) to (6) can be achieved.
  • a display that allows quick cross-reference of different types of information For example, by simply specifying the part of the camera image that is currently being monitored, a trend graph showing the sensor values associated with that part can be displayed. As a result, the situation on the site can be comprehensively judged.
  • a plurality of camera images are used, but images from a plurality of disk (eg, optical disk) playback devices may be used.
  • disk eg, optical disk
  • control data used for control
  • synthesizing video or audio with control data is called associating video or sound with control data.
  • FIG. 29 shows the configuration of the plant control and monitoring system of this embodiment.
  • the device to be monitored at the factory site (hereinafter simply referred to as the controlled device) 2101 transmits process data indicating the operation status at each time via the cable 2135 to the first device. It is sent to the control computer 210, which is the input means.
  • the control computer 2102 analyzes the process data and sends a control signal to the control target device 2101 via the cable 2136.
  • process data is sent to LA ⁇ 210 via cable 213, and operator instructions flowing from LAN 221 via cable 213 are received.
  • the main functions of the control computer 210 are collection of process data, output of process data to the LAN, input of operator commands from the LAN, and control of the control target device 211.
  • LAN 212 which is the output of the process control signal, sends signals such as operator orders and process data via a cable such as Ethernet.
  • LAN 2 1 2 0 is connected to the output cable 2 1 3 7 from the control computer 2 1 0 2, the input cable 2 1 3 8 to the control computer 2 1 0 2, and from the database 2 10 4
  • Output cable 2 1 4 3 Cable for input to database 2 104, Cable for output from work station 2 1 0 3; 2 140, Work It is connected to each device by the input cable 2 13 9 to the station 2 103.
  • the first and third storage units and the database 210 which is the first reproduction unit, cable the process data and the like flowing through the LAN 212 in the form of cables 214. And records it together with the time t output by the internal clock.
  • the data that has been specified to be read is sent to the LAN 2120 via the cable 2143.
  • the two ITV cameras 2110 have a power camera control device that can remotely control pan, tilt, zoom, etc. by inputting control signals, and audio that moves with the camera. Microphone is installed.
  • the camera 2110 sends the video and audio of the control target device 2101 to the switcher 2109 via the cables 2130 and 2131.
  • the switcher 2109 sends the camera control signal input from the parking station 2103 to the camera 2110 via the cable 2132.
  • the ITV camera 2110 is the second input unit.
  • the second storage unit and the video / audio recording unit 210 which is the second reproduction unit, an optical disk or the like capable of random access is used. It may be something like a videotape, but in this case the data search is sequential. It takes time to search and display data. All the video and audio from the ITV camera 2110 are input from the cable 2133 via the switcher 210. Also, if the work station 2103 as the control unit reads the data with the cable 2145 through the switch 2109 and inputs the command, The resulting video and audio information is output to the switcher 210 via the cable 213 4.
  • the switch 209 is a video / audio switch for sending multiple video and audio to be input to the work station 210 via the cable 241.
  • the camera control signal and the recorded image recall signal that are output from the camera station 210 through the cable 21 42 are transmitted to the camera 211 11
  • the work station 2 103 is a first and third output unit as a display unit for the operator, and a display unit 2 1 1 1 , Speaker 1 2 1 1 2, input unit from operator (unit for specifying measurement data output, unit for selecting selection target, and search value for measurement data It is connected to input devices such as keyboard 210, mouse 210, and evening switch panel 210 as a unit. In addition, connect the LAN 211 with the cables 213 and 210 and the switch 211 with the cables 214 and 242. The work station 2103 processes the process data input from the table 2139. Create a display screen and display it on the display 2 1 1 1 together with the video data input from the cable 2 1 4 1. On the other hand, audio data input by cable 2 1 4 1 is output by speaker 2 1 1 2.
  • Speaker 1 2 1 1 2 and display display 2 1 1 1 are the second output unit.
  • the keyboard input from the operator using the keyboard 210 and the mouse 210 and the input from the touch panel 210, etc. It is processed in the session 211 and is output as the control code of the control target device 211 by the cable 214, or the switch for switching between video and audio.
  • the switch for switching between video and audio.
  • cable 21 4 Output with 2 As a command to switch to 210, or a control code for camera 211, and a call code to video and audio recording unit 210, cable 21 4 Output with 2.
  • the operator monitors the status of the system indicated by the video, text, and graphics displayed on the display 2 1 1 1, and performs necessary operations and instructions with the mouse 2 1 0 5 , Using the keyboard 210 and the evening switch panel 210.
  • the touch panel 211 is used as an input device from the operator. Of course, other devices may be used.
  • FIG. 30 shows the internal structure of the work station 210.
  • 2201 is CPU
  • 2202 is main memory 2203 is 1 1
  • 222 is graphics for displaying process data on the display 211
  • the screen frame buffer, 2205 digitally converts the input video signal. Digitizer for changing to evening signal, 2206 is a frame buffer for video, and 2207 is for displaying a graphics screen and an image. There is a blend circuit.
  • Fig. 31 shows the configuration of the video and audio recording unit 210.
  • Main memory 2 3 0 2. Digitizes signals from ITV camera 2 11 0 and sends digital signals to work station 2 10 3 Analog It is composed of an AD / DA (analog / digital / analog) converter 2303 and a video / audio recording / reading unit 2304.
  • AD / DA analog / digital / analog
  • Figure 32 shows the display screen in the process control and monitoring system.
  • the display screen is composed of a process overall configuration diagram 2401, a moving image display area 2402 that mainly displays images from the ITV camera, and a control target device 2101.
  • Trend graph 2403 that displays these process data
  • work area 2404 that displays clock 2406, switches, help information, etc.
  • process data In the menu area 2407, which is the same as the display meter 2405 and the menu area 2407, a camera switching button 2410 8, Button for specifying selection target in video and process data 2 409, Switch between monitoring mode and playback mode 2, 1 button for switching between standard playback and slow playback 0, a simple editor to call or select a graph to display 2 4 1 1, display selection button 2 4 1 2, and help button 2 4 1 3 are displayed.
  • the process data from the control target device 201 is displayed, and in addition, a data table, a scaler, and the like may be provided. There may be more than one data display means listed above.
  • Figure 33 Trend graph displaying process data.
  • Trend graph 2403 is data display section 2501, data item display section 2502, time information, time axis 2503, time axis 2504, de It consists of SOL 2 505 and time axis movement buttons 2 506 and 2507. .
  • the process data is displayed as a graph in the data display section 2501 and its name is displayed in the data item display section 2502.
  • the correspondence between the name and the name is determined by the line thickness and the color or line type.
  • the time cursor 2503 indicates all the data currently displayed on the display (for example, the data value indicated by the meter 2405, the video 2402, the time of the clock 2406,
  • the time at which the trend cursor 2403 (the point on the time cursor 2503) was generated or recorded is represented using the time axis 2504. That is, the time cursor 2503 of the trend graph 2403 is a time display unit indicating the recording time of the currently displayed data.
  • the time axis 2504 is the time when the data to be displayed occurred. If the time axis is not within the currently displayed time axis 2504, the displayed time value will be shifted to the right (toward the time, hereinafter referred to as the reverse direction) or to the left (toward the time). (Hereinafter referred to as the positive direction) to display the value of the time on the time axis 2504.
  • the time axis 2504 can be enlarged or reduced, and can be enlarged or reduced by specifying a section. In this way, the section that you want to see in detail can be expanded in the time axis 2504, and the other sections can be reduced.
  • the time axis move button 2507 shifts the time value displayed on the time axis 2504 to the right, and displays the time before the displayed time.
  • the button 2508 moves to the left to display a time later than the displayed time.
  • the data cursor 2505 searches the process data. After selecting the process data that you want to search, if you bring the data value force to the search value, the time axis 2504 and the time force solution 2503 move, and the selected data The time cursor 2503 comes to the point where the data takes the search value.
  • a trend graph is used as a data display unit for displaying process data on a display.
  • data display units other than trend graphs can also be used.
  • Process data and its search value are specified to search for that data, retrieve and display the data, and display the image at the time when the data was recorded. And recall and display other process data at that time.
  • the playback speed of video and audio is determined according to the display frequency during video playback, and playback and display are performed.
  • Operation information is recorded from the operator, and the operation of the operator is reproduced when the video is reproduced.
  • the operator can select using the evening switch panel.
  • the selection target that can be selected is defined, and when the video is played back, the operator selects it, thereby displaying the relevant process data.
  • a selection target that can be selected by the operator using the touch panel is defined, and when the video is played back, the operator selects it, and the related process data is displayed. Displays a selection menu for the selected item, and if one item is selected from that menu, displays the process status of the selected item.
  • a selection target that can be selected by the operator using the touch panel is defined, and when the video is played back, the operator selects it and the related process data is displayed in the video. Display on the selection target.
  • selection items that can be selected by the operator using the touch panel are defined, and when the video is played back, the operator selects it, and other selections in the related video are made. Highlight the selection.
  • selection items that can be selected by the operator using the touch panel are defined, and the additional information of the selection items is selected by the operator when the video is played. indicate.
  • the selection target is defined in the video, and when the operator selects the process data during video playback, the video is switched to the video related to the selected process data, and the selection target in the video is displayed. Is displayed.
  • the selection target is defined in the video, and when the operator selects the process data during video playback, the video is switched to the video related to the selected process data, and the video in the video is displayed. Displays the selection and overlays the data value on the selection.
  • the selection target is defined in the video, and when the operator selects the process data during video playback, the video is switched to the video related to the selected process data, and the selection target in the video is displayed. Is displayed and the data value is displayed in a computer-graphics overlay.
  • Function 1 will be described with reference to FIGS. 29 to 39.
  • the video controller 2603 is displayed in the area 2404.
  • the video controller has a forward double speed playback button 275, a normal forward speed playback button 2704, and a reverse double speed playback button. 2 7 0 1 It has a reverse standard speed playback button 2 7 0 2 and a video stop button 2 7 0 3.
  • the video data and audio data are played back at the forward speed and standard speed and displayed on the video display section 2402. Is performed.
  • the time cursor 2503 in the trend graph moves according to this image, and the process data at the time when the displayed image was recorded is displayed as the time cursor 25 0 3 Try to come on.
  • the process data is When the time value displayed on the time axis 2504 is moved to the left (or right) from the current time axis 2504 Display process data for new time.
  • other process data display sections such as a meter 245, also display the value that the data had when the image was taken at the same time as the image is displayed.
  • the process process at the time when the video was taken is called and displayed.
  • data 280 0 represents the structure of process data sent from the control device 210 1 to the control computer.
  • the header 2801, the type of data 2802, the number of data 2803, and the number of data 280 which indicate the beginning of process data
  • the data has a structure such as data 2804 to 2806 ⁇ The control computer 2102 enters from each cable.
  • the multiple data of the form shown above are sent to LAN210.
  • the process data that has flowed is decomposed, and the data 282 0 (with the time t of the clock in the database 210) is decomposed. Record in an array having the structure shown in Fig. 36B).
  • 2821 is the data index
  • 2822 is the data name
  • 2823 is the time
  • 2824 is the process data.
  • the database 2104 has a table corresponding to the type of process data, and records the latest data with the time t after the last element of the array which is an element of the table. I do.
  • the process data block call instruction is input to the database 210 from the work station 210, the data 2811 in Fig. 36C is output. Data with the structure shown in 0 is sent to 2103.
  • the header 2811 which indicates the start of the process data, the data type 2812, the number of data 2811, and the process data 2811 To 2816, and the time data of data 2814-time data of evening 2817, time data 2811 of data 2818, and data 2811 of time It consists of 2 8 1 9.
  • the length of the data, the interval of the time data, and the like differ.
  • the structure of the video / audio data to be recorded is as shown in 2830.
  • the index of video and audio data is 2 831 (disk No.) and name 2 832 (camera NO. Or boiler NO.).
  • 288 3 4 is the time at which the voice was recorded
  • 283 3 is the audio information
  • 283 5 is the time at which the video was recorded
  • 288 36 is the video information.
  • video and audio may not be recorded separately but may be recorded together. If they are recorded together, time information will be shared.
  • a three-step procedure (steps) 2901 to 2903 for video recording is performed by the CPU 2 in the work station 2103. Execute at 201. After this procedure is performed, recording starts at 2904. In video recording, the entire video screen is recorded first when starting up the system or when exiting playback mode and returning to recording mode, etc. Only when the conditions are met, the video is recorded in 296. Audio information is recorded at any time because the required storage capacity is relatively small compared to video information. Hereinafter, recording and reproduction of video information will be described.
  • the target to be recorded is determined. Specifically, one of the following methods is used.
  • the realization method is to record all video signals from the camera c (2) A region including a process data output portion, a moving portion, a changing portion, and the like is specified in advance, and only that region is recorded.
  • Data 2840 shown in FIG. 36E is the data structure of the video data 2836 in this case.
  • the element of the data 284 0 is the image data 284 6 to be recorded and its position information, that is, the coordinate values 284 1, 284 2, of the captured image data.
  • the realization method is to record the full screen when the ITV camera performs zoom, tilde, pan, etc. If the camera stops after such a camera creation, the video data 2836 is sent to the parking station 2103, the image is analyzed, and the area including the recording target is Confirm. For simplicity, this area may be, for example, a rectangle. When this area is determined, the position information such as the coordinate value and size of the area is sent to the video and audio recording unit 210, and then the CPU 2301 is sent from the camera. Extract and record only this area from the image. Then record only this area until the camera operation is performed again.
  • the CPU 2301 blends the image data of the time 2845 and recalls the recorded data 2846, and the image that generates the full screen
  • the conditions for recording the video are determined. Specifically, one of the following conditions You.
  • Each process data is recorded when the difference from the previous data exceeds a certain value unique to the data.
  • the realization method is the same as (3).
  • the recording method is determined. Specifically, one of the following methods is used.
  • the display at time t of the video data recorded as described above is performed according to the procedure shown in FIG.
  • step 3 001 the index 2 82 1 of the video data and the time t are specified.
  • the video index is specified by the work station 211
  • the time t is specified by the work station 210 and the video station.
  • the processing is performed by the CPU 2301 in the audio recording unit 210. If the video at the time t is not recorded as shown in the steps 302 and 303, the video / audio recording / readout unit 2304 will record the video before the time t. T Also reads the video data at the point in time s. If the video data is the same as the video information in step 304, use it.
  • step 3005 the video information that is near the time t and is not the difference value is read out, and the It is recorded in memory 2302, and a video is created in step 3006 by taking the difference therefrom. Display if the video is all camera images. If not, display it after combining with the background in 308.
  • the CPU 2301 in the video and audio recording unit 2108 is internally programmed by the following formula when a playback request specifying the playback direction and speed is sent from the station 2103. Advances the display time data in the evening.
  • w is the video reading speed at the standard playback speed
  • a is positive when the playback direction is forward, negative when the playback direction is reverse, and the absolute value is 2 when the playback speed is 2x, and In the case of, the coefficient is 1.
  • the video display during playback is as follows.For forward playback, when the time data t exceeds the time data 2835, the video data 2838 is sent to the work station 2103. In the case of reverse playback, when this time data t falls below the time data next to 2835, the video data 2836 is sent.
  • FIG. 39 shows the processing procedure for realizing the first function based on the above recording and playback methods.
  • the playback mode is selected in the menu.
  • the work station 2103 displays a control button indicated by 2603 in FIG.
  • the ⁇ -station 2103 processes an input signal from a pointing device such as a Tatsuno or a 0 -channel and checks the input position.
  • the type of the button is detected.
  • the color of the pressed button is changed to re-display on the display as shown in Fig. 34 to indicate that the button has been pressed, and the playback direction and Determine the speed.
  • a time t at which the next process data to be displayed is generated is determined based on the determined direction and speed.
  • v is the time to rewrite all the data currently displayed once at a time
  • a is positive when the playback direction is forward, negative when the playback direction is reverse, and absolute when the playback speed is 2x. Is 2 and at standard speed it is 1.
  • the time for rewriting data varies with other loads on the computer, so the method (1) is also used.
  • the work The time of the next display information can be advanced by the time that the video and audio information for the time required for the display of the stage yoon 210 is advanced.
  • processing 3104 it is determined whether the data buffered in the process station 2103 to be displayed at time t is sufficient. And display them if sufficient.
  • a sufficient case means that the process data at time t has been buffered, or that there is no data at time t, but the data before and after it is not. In this case, it has been filed. If the data before and after the last data is being buffered, create data by substituting data that is closest to t or by linearly interpolating the data before and after. If it is not enough, in processing 3105, the work station 2103 determines the data to be read as the display data from the database 2104 based on the display speed and direction.
  • the range is determined, and in process 310, the type of process data to be displayed and the range of the data to be read are sent to the database 210 through the LAN, and the data is requested from the database 210.
  • Process data is sent to workstation—section 211.
  • video or audio information is displayed or output, and in process 310, each process data sent in work station 210 is trained.
  • Each process data recorded in the main memory 222 is displayed together with video information and audio information, such as a dog-mo-mo-one. indicate.
  • the time cursor 2503 is moved to the left and right while holding the finger on the force cursor 2503 using the evening touch panel 2107. 2503 is moving left and right.
  • the time cursor 3 2 0 1 in the graph 2 4 0 3 moves to the time pointed by the time force 2 5 0 3 and is determined by the time force 2 5 0 3
  • the time image is called and displayed in the image display area 2402.
  • meter 2405 in Fig. 30 also displays the data at the time pointed to by the time cursor 2503.
  • the time not currently displayed on the time axis of the trend graph 2403 can also be specified by using the time axis movement buttons 2506, 2507, and the like.
  • the location of the process data displayed as described above it is possible to refer to the video at the time when the data was recorded and the other process data at that time. Can be done.
  • the image can be displayed by directly specifying the point at which the operator wants to refer to the process data or the like by looking at the trend graph 2403 or the like.
  • FIG. 41 The implementation method of this example is described below with reference to Fig. 41.
  • Figure The algorithm of 39 is to detect the time t pointed to by the time-of-day solution in process 3301, and to find that the time t of process 3302 is already the work station. Only the judgment as to whether or not the information is in the section 2103 is different.
  • the CPU 2201 in the workstation 2103 stores the coordinate values of the input signal from the pointing device such as the touch panel in the workstation 2103.
  • the time cursor 2503 is redrawn on the coordinates, and the time t indicated by the time cursor 2503 is calculated from the coordinate values. If the data at the time t is not knocked out in the parking station 2 103, the following steps 3 1 0 5 and 3 1 0 in the first embodiment are performed. Perform step 6, and display data, video and audio in steps 3106 and 3107 below.
  • the third function is described. Tatsuno, as shown in Figure 42.
  • the time sensor 2503 moves and the other trend graphs move.
  • the time cursor 3402 moves at that time, and the image at that time is displayed on the image display unit 2402.At this time, the meter in FIG. For example, 1 2 4 0 5 etc. also displays the data at the time pointed by the time console 2 5 0 3.
  • the search is performed only once in the reverse direction with respect to the time axis, If you want to search further, press the time axis movement button 2506 to search in the opposite direction. On the other hand, when searching in the forward direction, the search is performed in the forward direction by pressing button 2507.
  • a value is searched for in the process data displayed as described above, the search result is displayed, and the image at the time when the displayed data was recorded and the other process data at that time are displayed.
  • Fig. 43 shows how to implement this example. Processing 3501 to Tatsuno.
  • the coordinate value of the input signal from the pointing device such as channel 2107 is processed by the workstation 2103 and selected as the search target in the data item display section 2502.
  • the search value indicated by the data value cursor 2505 is determined.
  • a search direction that is, a forward search or a backward search is determined on the time axis.
  • the search in the reverse direction is basically performed once, and furthermore, when the forward button 2507 of the time axis movement button is pressed, the search is performed in the forward direction.
  • the reverse button 2506 of the axis movement button is pressed, the search is further performed in the reverse direction.
  • the work station 211 determines whether or not this button has been pressed.
  • a search command including the search target, the search value, the currently displayed data creation time, the search direction, etc. is issued in the database 104. Determine the search value and display time that were first found in 04. Less than The procedure is the same as steps 3104 to 3109 in Example 1, so description is omitted.
  • This function is used to compare the values of other process data with video data under the condition that a certain process data takes a constant value. Analysis, etc., and abnormal values that occur very rarely Can be called.
  • Figs. 44, 45, and 46 Examples of the fourth function are described in Figs. 44, 45, and 46.
  • Fig. 44 when the forward double speed button 2705 is selected when playing back video information, the trend graph is displayed.
  • the time axis 2504 in the step 2304 displays the time in twice the range, and the currently displayed process data is redisplayed according to the new time axis, and The data that was not displayed is read from the database and displayed according to the time axis.
  • an image is displayed on the image display unit 2402 at twice the standard speed, and the time One solution 2503 moves. In this way, during double-speed playback, it is possible to display data for a longer period of time in the trend graph 2403. It can be. Such a display is convenient for data retrieval.
  • the time axis 2 50 4 displays the time in half the range of the standard speed.
  • the data can be displayed in more detail, so the data that was not displayed at the standard speed is read from the database and displayed again together with the existing data. That is, During playback, change the method of recalling and displaying the process data depending on the playback speed. This makes it possible to display long-term data in the trend graph 2403 when speeding up the playback speed, making it easier to search for data and overview. .
  • the process data is called, if the reproduction speed is high, the interval of the generation time of the called data becomes large, but the use of this display makes the calling inconspicuous.
  • the playback speed is delayed, the data can be displayed in detail. Therefore, when a detailed analysis is required, the process data can be displayed in detail by simply playing back the video in slow motion.
  • the display frequency of the process data with respect to time is changed depending on the reproduction speed, so that the load on the computer can be reduced to some extent.
  • the direction and speed for reproducing video information and audio information are determined by input from the operator.
  • the display method and the calling method of the process data are determined in the work station 2103 based on the determined speed.
  • the display method is the trend graph.
  • step 3104 Determine the unit of time axis display, such as 2 4 0 3, that is, how often the time is ticked, and the recall method is the time interval between data in the block to be called, and once Determines the length of time in the calling block of a call.
  • the data buffered in step 3104 If this is not sufficient, the time interval and time length determined in step 3105 are coded and sent to the database. Based on the code sent in step 310, the database reads out the block data for the time interval and time length, and the work station 210 Send to 3. In the following work stages, the display will be performed overnight based on the determined display method. This part is the same as steps 310 to 310 in the above embodiment, and therefore will not be described.
  • the speed is double, if it is in section 3902, it is the standard speed, and in section 3903, In some cases, it is displayed at 1/2 speed. That is, the method of displaying process data is set in advance. When playing back, set the video playback speed according to the display method, and play back at that speed.
  • Figure 48 shows how to implement this example.
  • the section of the time axis to be reduced or expanded is specified by the input from the operator.
  • the operator selects either enlargement or reduction for that section. These designations and selections may be made by, for example, a menu, or, as in this example, by specifying a section with a touch panel or the like, and then grabbing an end point of the section to extend and contract the section. You can also do it.
  • the time axis is redisplayed in step 4003, and if necessary, a block is called from the database to redisplay the process data.
  • the playback speed of each section is determined by the work station 2103 and stored in the main storage 2222.
  • step 3103 the display time t is determined by the procedure 3103.
  • the playback speed and the video / audio recording section 210 are stored in the step 4004 in the step 4004.
  • Send a playback command such as direction.
  • steps 310 to 310 of the above embodiment can be performed.
  • a new image to be displayed in the video display area 2402 was selected by the operator, and could not be seen at the time of recording. You can refer to the video information.
  • process data that was not displayed by the same operation can be displayed, so that abnormalities that occur due to, for example, operator's operation mistakes can be found quickly. . It can also have a great effect on control operation education.
  • the seventh function is to input operation information from the operator who wants to search, search for the input operation information, and retrieve and display the operation information and video information, audio information and process data at that time. You. As a result, information search can be performed using the operation performed by the operator as a landmark.
  • the operator's operation command can be searched, and the change in the process data generated by the operator's operation- You can search for changes in the video.
  • data 2850 indicates the screen information to be recorded in database 210.
  • Screen information 2850 is the time 2851, the video to be displayed in the video display area 2202, the camera name 2853, and the process data to be displayed in the trendgraph 2430.
  • Data names 2 8 5 3 and 2 8 5 5 are displayed on the main menu 2 4 0 5 and other data display units. You. This data is used when the operator switches the image displayed in the moving image display area 2402, or changes, adds, or deletes the data displayed in the trendgraph 2403.
  • Park station 210 sends to database 210. '
  • the data structure of the operation data input from the operator is the same as the data structure 282 0 of the process data in Fig. 36B. However, in place of the process data value 2 8 2 4, an operation command input as an operation data (coordinate value input by an operator using a pointing device is used as a work station). Instructions generated by processing by 2103 are inserted. The work station 2103 sends this data to the database 2104 when an operation command is issued.
  • step 3108 the process data is created by interpolating the data to be displayed with the data value at the time closest to the display time t or the data before and after it.
  • the operator operation data is executed when the display time t exceeds the recording time of the operation data during forward playback, and falls below the recording time of the operation data during reverse playback.
  • the contents of the screen information data recorded at time 2851 are displayed when the display time t is equal to or greater than time 2851 in forward playback, and in reverse playback. Is when the time is less than 2857.
  • step 3504 the screen information data closest to t before t is called first in step 310, then the process data to be displayed is determined and the process data is called.
  • the following example relates to the display of the video and the process data when the process data is reproduced in all the above embodiments.
  • the eighth function is that the boiler window displayed in the moving image display area 2402 in FIG. 50 is defined as a selection target 4201, and when this is selected, the selection target is selected.
  • a graphic indicating that is selected is displayed, and the process data name generated from the graphic is displayed in the trend graph. It is displayed in the process data item and the process data is displayed as a graph in the form of a graph 423.
  • the selection target in the video is selected by using a pointing device. Display the process data to be processed, and of course, even if the selection is not a boiler window, It suffices if it is registered in the control computer as a selection target in advance. In addition to displaying the data on the trend graph 2403, it is also possible to display it on the meter 2405, etc. Shown only when displaying data in 2403.
  • the ninth function is to select the pipe above the boiler displayed in the moving image display area 2402 in Fig. 51.
  • a graphic will be displayed indicating that the selection has been selected, and the process data associated with that selection will be displayed. If the vapor pressure is already displayed in trend graph 243, the vapor pressure 430 in the process data item is highlighted, and graph 430 is high. Write to indicate that the data is related to the selection selected by the operator, i.e., if the data related to the selection in the selected video is already displayed, the data is high. Indicates that the item was selected by writing.
  • the 10th function is shown in Fig. 52 in the moving image display area.
  • the first function is that the moving image display area
  • a graphic 4 50 1 indicating that the selection target has been selected is displayed.
  • the related process data 4502 to 4504 are displayed in a superimposed manner in relation to the respective data of the moving image, that is, the selection target in the video is indicated by a pointing device.
  • the relevant process data is displayed at the relevant location in the video by selecting using.
  • the first function is to define the entire boiler displayed in the moving image display area 2402 in FIG. 54 as a selection target, and when this is selected, it is determined that the selection has been made.
  • the graphic 460 shown is displayed, and the temperature distribution data related to the selected item is called up, and the computer graphics 4602 displays the image. Display them in layers.
  • the process data displayed on the selection target is displayed in computer graphics.
  • the third function to be superimposed is that the entire boiler displayed in the moving image display area 2402 in FIG. 55 is defined as a selection target, and when this is selected, the selection target is selected. Done two and Is displayed, and a graphic 4702 is displayed on the fuel supply unit closely related to the selection target. That is, the selection target in the video is selected by using the pointing device, and the selection target in the video related to the selection target is displayed.
  • the 14th function is that the entire boiler displayed in the moving image display area 2402 in FIG. 56 is defined as a selection target, and when this is selected, the selection target is selected.
  • the graphics 480 1 indicating that the selected object has been displayed are displayed, and the additional information 480 2 such as the control method and maintenance information related to the selected object is displayed in the database. And read out from the video. That is, by selecting a selection target in the video using a voice device, additional information such as an operation method, a control method, and maintenance information of the selection target is displayed. .
  • the functions 8 to 14 enable the process data to be associated with the device shown in the video information, and the process data can be used to refer to the relevant device in the video. You can refer to the process data by the device in the video. This allows simple operation and monitoring of the equipment by viewing images and data, for example, without having to be a trained operator.
  • the fifteenth function is shown in FIG.
  • the process data item 4302 is di- rected to select that process data item. Indicates that the process is selected, and further indicates that there is a selection related to the process in the video display area 2402. 1 is displayed. In other words, a graphic indicating which selection target the process data is related to in the video is displayed.
  • the 16th function is that, in FIG. 58, by selecting the process data item 4302 in the trend graph 2403, the process data is displayed in the video 2402. O Overlay the process data 5001 on the selection target related to
  • the 17th function is that, in FIG. 59, by selecting the process data item 4302 in the trend graph 2403, the process data is displayed in the video 2402. Displays the process data on the related selection target with computer graphics 5101.
  • the shape model of the controlled device 5201 to be monitored is recorded in the work station 2103.
  • a part of this shape model is defined as a selection subject that receives input from the operator.
  • This shape model is defined by looking at 3D data such as CAD models, process design drawings, or images from the camera 211 A simple rectangular area may be used.
  • the angle-of-view, vertical-angle, and horizontal-angle information from the ITV camera 2110 are transferred to the database 2104. Record with the time.
  • the camera control command to be sent to the ITV camera and the angle of view information, vertical angle information, and horizontal angle information from the initial settings of the ITV camera are displayed in the peak station 210. Calculated by the CPU 2201 in 3. The result is sent to the database 2104 and recorded with the time. Since the ITV camera and the device to be controlled do not move, the position and size of the selection target in the image can be determined by combining the initial position of the force camera, the camera information to be recorded, and the shape model. Can be.
  • the images of the device 520 1 appearing in the respective images are 520, 520, and 507 depending on the zoom value. Scale the selection inside the calculator according to each zoom value.
  • the selection target corresponding to the image 502 is 5208, and the selection target corresponding to the image 5203 is not obtained. 5209 and 5210 for image 5204. Scaling is easy because it is all linear.
  • Operators can select the selected items defined in this way. When there is a selection, or when some other message is sent from another selection, an action such as outputting relevant data indicating the selection is activated.
  • the structure of the data to be selected is shown in Fig. 36G as data 280.
  • 2861, 2862 is the size of the selection
  • 2863, 2864 is the position
  • 2868 is the operation to be activated when selected by the operator, or the operation table.
  • Point First place first and second place, and 2 866 6 contain related text information. This makes it possible to associate devices in the video with process data and related information. In addition, the devices in the video can be associated with each other. In addition to simply displaying process data and selections, it is also possible to execute pre-defined instructions when selected.
  • the process data can be displayed on the device in the video, and the operator can view the moving image and the process data without moving the line of sight.
  • the operator can intuitively judge the data value.
  • the operator can select the process data to be referred to on the video, or select the video to be referred directly on the process data display, so that the operation can be performed more directly.
  • Monitoring, operability and reliability of it is possible to search for process data using video data and search for video data using process data.
  • the functions 8 to 17 described above can be realized not only for the recorded sound and video but also for the sound and video input in real time by the same realization method as described above.
  • the displayed control data is the data actually collected on the spot.
  • the video is switched by switching the ITV or by panning and zooming by remotely controlling the ITV.
  • this embodiment has the following effects.
  • the process status can be grasped.
  • the associated data value In order to set a certain process data value to the desired value, the associated data value must also be set. in this way, the operator can be given guidance on determining the set values by referring to past data, images, and sounds.
  • the search for abnormal points and the detection of failure points can be made more effective by using synchronous playback of past process data and video and audio.
  • It can be used as an educational simulator by reproducing the operating procedure of the operator.
  • the time is recorded in order to synchronize the measurement data with the video or sound data.
  • a serial number may be assigned to the fixed data and video data, and the serial number may be used as a key to synchronize the measurement data with the video or audio data.
  • the present invention is not limited to this.
  • the playback is not limited to this, and the playback may be stopped (paused).
  • a method of stopping it is also possible to use an operator's operation method or to record an alarm and stop when an alarm occurs .
  • the screen at the time of the accident can be searched quickly. There is merit power.
  • the present embodiment is not limited to the above-described moving image by the ITV camera, but may be a still image by the still force camera. You can do it.

Description

明 細 書
映像又は情報処理方法及び装置及び
それを用いた監視方法及び装置 技術分野
本発明は、 音又は映像デ一 夕を利用 したマ ン マ シ ン ィ ン ター フ ェ イ ス (以下単にマ ンマ シ ン と称す) に関 し、 特に対象物 (オブジ ェ ク ト) の音又は映像データを用い て該対象物に関する処理を行う 映像又は情報の処理方法 及び装置及び、 それを用いた対象物の監視方法及び装置 に関する。
背景技術
原子力発電所に代表される大規模なブラ ン ト シ ス テ ム を安全に運転 してい く ためには、 適切なマ ン マ シ ンを も つ た運転監視システムが不可欠である。 プラ ン ト は、 操 作者の 「監視」 「判断」 「操作」 の 3 つの作業によ って 運転維持される 。 運転監視シ ス テムは操作者のこ う した 3 つの作業が円滑にでき る よ う なマ ン マ シ ンを備えてい る必要がある。 「監視」 作業では、 プ ラ ン ト の状態が即 座に また正確に把握でき る必要がある。 「判断」 時には 判断の材料、 根拠となる情報を操作者が素早 く 参照でき なければな らない。 「操作」 時には、 操作の対象、 操作 の結果が直感的にわかり 、 操作者の意図する操作が正確 かつ迅速に実行でる よ う な操作環境が不可欠である。
従来の運転監視シ ス チ 厶 の マ ン マ シ ン を、 「監視」 「判断」' 「操作」 の各作業ごとに概観してみる。
( 1 ) 監視
プ ラ ン ト内の状態は、 圧力や温度な どを検知する各種 のセ ンサか らのデータ と、 プラ ン トの各所に配置された ビデオカ メ ラからの映像とを監視する こ とによ って把握 でき る。 各種セ ンサからの値は、 グラ フ ィ ッ ク ディ スプ レイな どに様々 な形態で表示される。 ト レ ン ドグラ フや バーグラ フな ども多 く 利用されている。 一方、 ビデオ力 メ ラからの映像は、 グラ フ ィ ッ ク ディ スプレイ とは別な 専用のモニタに表示される こ とが多い。 プラ ン ト内には 4 0 個以上のカ メ ラが設置される こ と も少な く ない。 操 作者はカ メ ラを切り替えた り、 カ メ ラの方向やレ ンズを 制御しながらプラ ン ト各所の監視を行な う。 通常の監視 業務では、 カ メ ラからの映像を操作者が見る こ とは滅多 に無く 、 カ メ ラ映像の利用率は低いのが現状である。
( 2 ) 判断
プラ ン ト に何か異常が発生したときには、 操作者はセ ンサゃ力 メ ラから得られる多量の情報を総合的に調べて ブラ ン ト内で何が起きているかを素早 く 的確に判断しな ければな らない。 現状の運転監視システムでは、 各種セ ンサか らのデ一夕や、 カ メ ラからの映像が独立に管理さ れているため、 それらを関連づけながら参照するのが難 し く 、 操作者に大きな負担をかけている。
( 3 ) 操作
操作は操作盤上のボタ ンや レバーを用いて行な う。 最 近では、 グラ フ ィ ッ ク デ ィ スプ レ イ と 夕 ツ チパネルに組 み合わせて、 画面上に表示 した メ ニュ ーや図形を選択す る こ とによ っ て、 操作を行える よ う な シ ス テ ム も多 く な つてきた。 しか しな力 ら、 操作盤上のボタ ンや レバ一、 またディ スプレ イ上の メ ニュ ーや図形といっ た ものは、 現場の事物とは切り離された抽象的な形態であ り、 操作 者がそれらの機能や、 操作の結果を想起するのが困難な 場合がある。 すなわち、 所望の操作がどの レバ一を引け ば可能なのかがす ぐわからなかった り、 ある ボタ ンを押 すとプラ ン ト内の どの機器に どんな操作措合が送られる のかが直感的につかみに く いといった問題がある。 また 操作盤が力 メ ラな どのモニタ とは独立に構成されている ため装置が大型化する という 問題もある。
上記 ( 1 ) で述べた監視作業における カ メ ラの切り替 え、 カ メ ラの遠隔操作を簡単にする従来技術と して下記 がある。 ,
( a ) カ メ ラの撮影対象を模擬 したグラ フ ィ ッ ク スを グラ フ ィ ッ ク ディ スプレイ に表示する。 前記グラ フ ィ ッ ク ス上で撮影場所を指示する。 前記指示に基づいて、 力 メ ラが遠隔操作され、 カ メ ラのモニタ に所望の映像が表 示される。 こ の種のプラ ン ト運転監視システムの例と し て特開昭 6 1 — 7 3 0 9 1 がある。
( b ) 運転ま たは監視を行う プロセス機器をキーボー ドによ り指定する と、 前記指定されたプロセス機器のプ ロセス フ ロ ー図がグラ フ ィ ッ ク表示され、 同時に前記プ ロセス機器を撮影している 力 メ ラの映像が画面に表示さ れる よ う にする。 こ の種のプラ ン ト運転監視システムの 例 と して特開平 2 — 2 2 4 1 0 1 がある。
( c ) プラ ン ト を撮影する カ メ ラのモニタ画面上で指 示した位置に基づいて、 カ メ ラのノ、。ン、 ズーム、 焦点調 整な どを行う。 例えば、 モニタ画面上の上部を指示すれ ばカ メ ラが上方にパン し、 モニタ画面の下部を指示すれ ばカ メ ラが下方向にパンする よ う にする。 この種のブラ ン ト運転監視システムの例と して特開昭 6 2 - 2 2 6 7 8 6 がある。
一方、 一般に、 プロセス制御監視システム等の監視シ ステムにおいては、 中央管理室にモニタ一装置を設置し プロセス側に I T Vカ メ ラ (i ndus t i ra l te l ev i s i on camera) を設置してプロセスの様子をその力 メ ラによ つ て撮られた映像をモニタ一に表示する こ とによ り プロセ スの状況を視覚的に監視する方法が採られている。 こ の 映像、 音は ビデオテープな どの記録媒体に記録されてい る。 こ の映像、 音は、 異常時な どに巻き戻し、 再生が行 われる。
一方、 プロセスから時事刻々 と送られて く る制御のた めのデータ (制御データ) 、 例えばプロセスデータ (測 定データ) は中央管理室のモニタ ーやメ ーター類に表示 される と共に、 システム内のデ一夕ベースに蓄え られ、 異常時や解析が必要な時にはデータベースから引き出せ る よ う にな っている。 このシステムについては特開昭 6 0 — 9 3 5 1 8 号公報のプ ラ ン ト運転履歴表示方式で 紹介 さ れている。
発明の開示
上述の様に、 従来の運転監視シ ス テ ムにおいては、 下 記の問題点があ っ た。
( 1 ) 操作盤上のキー、 ボタ ン、 レバ一による遠隔操作 や、 画面上の メ ニュ ーやアイ コ ンを使った遠隔操作では 現場の臨場感が伝わ り に く いため、 実際の操作対象や操 作結果を直感的につかみに く く 、 誤操作する可能性が高 い。
( 2 ) 操作者が直接カ メ ラの切り替えや、 遠隔操作を し なければな らず、 多数のカ メ ラを用いて監視を行な う場 合、 見たいと こ ろを映して く れるカ メ ラを簡単に選択で きない。 また、 遠隔にある カ メ ラを操作して、 見たいと こ ろがよ く 見える よ う にするのに手間がかかる。
( 3 ) ビデオカ メ ラからの映像を映す画面と、 他のデー 夕を参照する画面と、 操作するための画面または装置と が別にな つてお り、 全体の装置が大き く なる、 映像と他 のデータ との相互参照がやり に く いな どの問題がある。 ( 4 ) カ メ ラ映像は臨場感を伝える効果は高いが、 情報 量が多 く 、 抽象化されていないため、 操作者がカ メ ラ映 像内の構造を直感的につかみに く い という欠点がある。 一方、 グラ フ ィ ッ ク スによる表示は、 重要な部分を強調 し、 不必要な部分を簡略化し、 本質的な部分だけを抽象 化して表示する こ とができ るが、 実際の事物や事象と切 り離された表現とな り 、 操作者がグラ フ ィ ッ ク表現と実 際の事物、 事象との関係を容易に想起できな く なる恐れ がある。 .
( 5 ) カ メ ラからの映像情報と、 他の情報 (例えば、 圧 力や温度な どのデー タ) とが全 く 独立に管理されてお り 相互参照が簡単にできない。 このため状況の総合判断す る こ とが難 しい。
一方、 上記特開昭 6 1 一 7 3 0 9 1 に示された方法で は、 撮影対象をグラ フ ィ ッ ク ス上で指定するだけで、 複 雑なカ メ ラ操作をする こ とな く 所望の映像を表示でき る という利点があるが、 映像に映っている内容 (映ってい る機器な ど) を指示して、 関連する映像や、 制御情報を 参照する こ とはできない。 このため、 運転員がカ メ ラの モニタ上で異常を発見し、 その異常部をも っ とよ く 見て みょ う と思った場合、 グラ フ ィ ッ ク画面に視線を移し、 映像上で発見 した異常部に対応する部分をグラ フ ィ ッ ク ス上で探し直さなければな らない。
また、 特開平 2 — 2 2 4 1 0 1 に示された方法では、 キ一ボー ドから指定した機器に関連する グラ フ ィ ッ ク表 示とカ メ ラ映像とを同時に表示でき る という利点がある が、 機器の指定を画面上で直接行う こ とができない。 こ のため、 運転員がカ メ ラのモニタ上で異常を発見し、 そ の異常部を も っ と よ く 見てみょ う と思った場合、 異常部 に対応するキーをキーボー ト上で探さなければな らない, 更に、 特開昭 6 2 — 2 2 6 7 8 6 に示された方法では. ジ ョ イ ステ ィ ッ ク な どの入力装置を使う こ とな く 、 映像 を表示 している画面上で力 メ ラ の操作を指定する こ とが でき るが、 あ く まで も カ メ ラ のノ、 "ン方向や、 ズームイ ン ズームァ ゥ ト な どのコマ ン ドを選択でき るにすぎない。 どれ ぐ らいパンすれば監視対象が も っ と見やす く なるか は運転員が調節 しなければな らず、 操作の複雑さ はジ ョ ィ スティ ッ ク の場合と大差がない。 また、 操作の対象が 一つのカ メ ラ に限られているため、 複数のカ メ ラの中か ら最適な映像を選ぶこ とができない。
こ の様に、 上記各文献に示された方法では、 映像に映 つている内容 (映っている機器な ど) を直接指示 して、 前記内容に関連する情報 (映像や、 制御情報な どのグラ フ ィ ッ ク表示な ど) を呼び出せない。 このため、 運転員 が自分で映像に映っている内容に関連する情報を探し出 す必要がある。
一方、 上記のプロセス制御監視システム等の監視シス テムにおいては、 映像情報や音情報とプロセスデータ と は相互に関連付け られていないため従来、 再生あるいは 解析する際には、 別々 に再生あるいは解析しなければな らなかった。 例えば、 プラ ン ト上で異常が発生 した場合 は、 それを計器が検出 してブザーがなる。 その後プロセ ス全体図で対応する機器を探 してその原因 と対応策を決 め、 処置を施す。 こ こ でその原因 と故障機器の推定には 多 く の関連するデ一 夕、 映像が必要のため非常に労力を 必要と した。 ビデオを用いた解析においては、 あ らか じ め ビデオを見て異常の起こ る付近^探した後、 プロセス デー タでその付近を調べる方法が用い られた り、 プロセ スデ一夕で異常時点を見つけた後、 そ こ まで ビデオを巻 き戻 して再生する方法が用い られている。
しか し一般に、 プラ ン ト等を監視する I T Vカ メ ラ は 複数あ り、 そこからの映像が複数の ビデオに記録されて いるため、 異常時等、 解析時に各カ メ ラからの映像を関 連付けて見るためにはそれらの ビデオすベてを希望する と こ ろ まで巻き戻 し再生する等、 操作員の負担が大きか つ
方、 データベースから希望のデータをう ま く 引き出 すこ とは難し く 、 多 く の場合、 膨大な量の情報をプ リ ン 夕で出力 した後、 その解析に操作員があたってい'た。
の様に、 従来のプロセス制御監視システム等の監視 システムは以下のよ う な問題点があった。
( 1 ) 映像、 音情報を再生する際にプロセスデ一夕を 同時に参照できなかったため、 せっか く 映像から情報を 得て もその後のプロセスデータの検索に手間と時間がか かる
( 2 ) プロセスデータを ト レ ン ドグラ フ等に表示し、 操作員が映像を参照したい時点がわかって も、 映像を表 示するためには手間 と時間がかかった。 このため迅速な の実際の状況把握が出来なかった。
( 3 ) 異常値等プロセスデー タの探索を行なった場合 でも、 そのプロセスデータ に関する映像を表示するのに 手間がかかる。
( 4 ) 記録さ れたプロセスデー タ を表示する際に、 特 に記録された多 く のデー タ を早送 り で表示する と計算機 に多 く の負担がかかっ た。
( 5 ) デー タの表示方法に制限があ つ たため詳 し く 見 たい、 飛ばして見たい と言った要求には対応できなかつ た。 特に詳し く 見て解析する場合は、 関連する映像や音 もスロ ー再生で参照すれば、 よ り解析に役立つがこ の機 能はない。
( 6 ) プロセスの運転を決定する重要な要素と して、 操作員の操作命令があるが、 これらが再生されないため 何の操作でプロセスの状態が変わったか、 わからなかつ た。
( 7 ) 操作員が操作した命令を箄えていて もその命令 を探索する こ とができなかったため、 結局プロセスデ一 夕等を解析して操作命合を した時点を推測せねばな らな カヽつた。
( 8 ) プロセスデータ と映像情報の関連づけがないた め、 た とえ映像上で異常が発見された場合に も、 その映 像が何を映している もので、 そ こから何のデー タを出力 しているかは、 訓練を積んだベテラ ンのみがわかるので あって、 そ う でない者にはデータがどのプロセス装置と 関係するかわからなかった。
( 9 ) 映像を表示する場所とプロセスデー タを表示す る場所が分立 していたため操作員が視線を動かさねばな らず刻々 と変わるデータ、 映像を同時に見れなかった。
( 1 0 ) 従来用い られる ビデオテープは映像デー タの迅 速なア ク セス等の点で、 その再生能力に問題があ った。 一方、 光ディ ス ク を用いれば迅速なア ク セスは可能であ るが、 映像デ一夕が非常に大き く な つて しま う ため記録 するためには大容量のディ ス クが必要であ った。
本発明の目的は、 出力される、 オブジェ ク 卜 に関する 音又は映像データ に関する処理を、' 該データ に関する情 報に基づいて行いう る情報処理方法及び装置を提供する こ とにある。
本発明の別の目的は、 表示手段の画面に表示される少 な く と も一つのオブジェ ク トの ビデオ映像に関する処理 を、 該ォブジ ェ ク ト に関する情報に基づいて行いう る映 像処理方法及び装置を提供する こ とにある。
本発明の更に別の目的は、 監視対象物 (オブジェ ク ト) に関する制御のための情報と、 該監視対象物に関す る音又は映像データ とを関連付けて出力 しう る監視装置 を提供する こ とにある。
こ の様な目的を達成するために、 本発明の一面によれ ば、 表示ユニッ トの画面に表示される少な く と もひとつ のォブジ ェ ク ト ( o b j e c t ) の ビデオ映像に関する処理を 行う映像処理装置は、 該オブジェ ク ト に関する情報をス ト ァするュニ ッ ト と、 該情報に基づいて該ォブジェ ク ト に関する処理を行う ュニッ ト とを備える。
本発明の別の一面によれば、 対象物に関する制御のた めのデー タ (制御デー タ) を記憶する と共に、 該対象物 に関する音ま たは映像のデー タ を記憶する情報処理装置 は、 制御デー タ と音又は映像デー タ を関連づけるュニ ッ 卜 と、 該関連づけるュニ ッ 卜 に基づいて、 制御データ と 音又は映像デー タ とを関連づけて出力するユニ ッ ト とを Iほん る 。
好ま し く は、 本発明の a i mは、 前記従来技術の問題 を解決し、 下記 ( 1 ) から ( 6 ) の少な く と も一つを達 成する こ とにある。
( 1 ) 遠隔運転監視システム等において、 運転員が操 作の対象や操作結果を直感的に把握でき る よ う にする こ と o . ( 2 ) カ メ ラの選択や、 カ メ ラの遠隔操作に煩わされ る こ とな く 、 監視したいと こ ろの映像を簡単に見れる よ う にする こ と。
( 3 ) 遠隔運転監視システムな どの小型化、 省スぺー ス化を図る こ と。
( 4 ) カ メ ラ映像と グラ フ ィ ッ ク スそれぞれの長所を 生か し、 短所を補う こ と。
( 5 ) 異種の情報を素早 く 相互参照でき る よ う にする 二 と。 例えば、 カ メ ラ映像で現在監視している部分の温 度をす ぐに参照でき る よ う にする こ とな ど。
( 6 ) 上記 a i mを達成する よ う なマ ン マ シ ンを簡単 に設計、 開発でき る よ う にする こ と。
本発明によれば前記 a i m ( 1 ) 〜 ( 5 ) は下記ス テ ッ プを有する方法によ って解決される。
( 1 ) オブジ ェ ク ト指定ステ ッ プ
画面上に表示された ビデオ映像内の事物 (以下では、 オブジ ェ ク ト と呼ぶ) をポイ ンテ ィ ン グデバイ ス (以下、 P D と呼ぶ) な どの入力手段を使って指定する。 ビデオ 映像は遠隔に置かれた ビデオカ メ ラから入力 した り、 蓄 積媒体 (光ビデオディ ス ク、 ビデオテープレ コーダ、 計 算機のディ ス クな ど) から再生 した りする。 ポイ ンティ ン グデバイ ス と しては、 例えば夕 ツ チパネル、 タブレ ッ ト、 マウス、 アイ ト ラ ッ カ、 ジエスチヤ入力装置な どを 用いる。 ォブジェ ク 卜の指定前に、 映像内の措定可能な オブジェ ク トを、 グラ フ ィ ッ ク スの合成表示によ り.明示 してもよい。
( 2 ) 処理実行ステ ッ プ
前記オブジェ ク ト措定ステ ッ プによ って指定されたォ ブジェ ク 卜 に基づいて処理を実行する。 処理の内容には 例えば下記がある。
• 指定されたォブジェ ク トを動作させる または動作した 場合と同様の結果になる よ う な操作指合を送る。 例えば、 指定されたオブジェ ク トがボタ ンである場合、 実際にそ のボタ ンを押し下げる または、 押し下げられた場合と同 様の結果になる よ う な操作指令を送る。
• 指定されたオブジ ェ ク 卜 に基づいて映像を切り替える。 例えば、 遠隔にあるカ メ ラを操作して、 指定されたォブ ジ ェ タ トがも っ とよ く 見える よ う にする。 カ メ ラの向き を動か して、 映像の中央に指定されたオブジ ェ ク トが映 る よ う に した り、 レ ン ズを制御 して指定されたオブジ ェ ク ト か大き く 映る よ う にする。 他の例では、 指定された オブジ ェ ク 卜 を別な角度から捉える カ メ ラの映像に切 り 替えた り、 指定されたオブジ ェ ク ト に関連するオブジ ェ ク ト を映っているカ メ ラ映像に切 り替えた りする。
• 指定されたオブジ ェ ク トが明示される よ う に、 グラ フ ィ ッ ク スを映像上に合成表示する
- 指定されたォブジ ェ ク 卜 に関連する情報を表示する。 例えば、 指定されたオブジェ ク トのマニュアル、 メ ンテ ナ ンス情報、 構造図な どを表示する。
• 指定されたォブジ ェ ク 卜 に関 して実行可能な処理の一 覽をメ ニュ ーで表示する。 メ ニューを図形で表現する こ と もでき る。 すなわち、 い く つかの図形を映像上に合成 表示 し、 合成表示された図形を P Dで選択 し、 選択され た図形に基づいて次の処理を実行する。
本発明によれば、 前記 a i m ( 1 ) は、 映像に映って いる制御対象の上または近傍に前記制御対象を制御する ための操作器をグラ フ ィ ッ ク表示するステ ッ プを有する 方法によ って も解決される。
ま た、 本発明によれば前記 a i m ( 2 ) はテキス ト ま たはグラ フ ィ ッ ク スを入力 して探索キーを指定する探索 キー指定ステ ッ プと、 前記探索キー指定ステ ッ プによ つ て指定された探索キーに適合する事物が表示されている ビデオ映像を表示する映像探索ステ ッ プを有する方法に よ って も解決される。
本発明によれば前記 a i m ( 6 ) は、 ビデオカ メ ラか ら人力 された映像を表示する映像表示ステ ッ プと、 前記 映像表示ステ ッ プによ って表示された映像上で領域を指 定する領域指定ステ ッ プと、 領域指定ステ ッ プによ って 指定された領域に処理を定義する処理定義ステ ッ プとを 有する方法によ って解決される。
画面上の ビデオ映像内のオブジェ ク トを直接指定して 指定したオブジェ ク 卜 に操作指令を送る。 操作者はォブ ジェ ク 卜の実写の映像を見ながら、 操作指示を行な う。 操作指示によ って、 オブジェ ク ト に目 に見える よ う な動 きがあれば、 その動きはカ メ ラ映像にそのま ま反映され る。 このよ う に、 実写の映像に対して直接操作を行なう こ とによ って、 操作者は実際に現場で作業している感覚 で遠隔操作できる。 これによ つて、 操作者は操作の対象 や操作の結果を直感的に把握でき、 誤操作を減らすこ と ができ る。
画面上で指定された映像内のオブジェ ク ト に基づいて カ メ ラを選択 した り、 カ メ ラに操作指合を送る。 これに よ って、 映像内のオブジェ ク トを指定するだけで、 その ォブジ ェ ク ト を監視するのに最適な映像を得る こ とがで き る。 すなわち、 操作者は見たいものを指定するだけで よ く 、 カ メ ラを選択 した り、 カ メ ラを遠隔操作 した りす る必要がない。
映像内のオブジェ ク ト に直接操作を加える際に、 映像 に適宜グラ フ ィ ッ ク スを合成表示する。 例えば、 ユーザ がオブジ ェ ク ト を指定 した ら、 どのオブジ ェ ク トが指定 されたのかを明示する よ う な グラ フ ィ ッ ク ス表示を行な う 。 これによ つて、 操作者は自分の意図する操作が確実 に行われている こ とを確認でき る。 また、 指定したォブ ジ ニ ク ト に対して複数の処理を実行可能な場合は、 所望 の処理を選択するためのメ ニュ ーを表示する。 こ のメニ ユ ーは、 図形によ って構成される場合もある。 メ ニュ ー と して表示された図形を選択する こ とによ り、 操作者は 実際にオブジ ェ ク トを操作している という感覚をよ り強 く 持つこ と ができ る。
画面上で指定された映像内のォブジ X ク ト に基づいて 情報を表示する。 これによ つて、 映像内のォブジヱ ク ト に関連する情報を、 オブジ ェ ク トを指定するだけで、 参 照する こ とができ る。 映像と他の情報とを同時に参照し ながら、 状況判断を下すこ とが容易にでき る。
テキス ト または図形を探索キー と して入力 し、 前記入 力 した探索キーに適合する事物が映っている映像を表示 する。 テキス ト は、 キーボー ドな どの文字入力装置、 音 声認識装置、 手書き文字認識装置な どから入力する。 ま た図形は P Dを用いて入力するか、 すでに何らかの方法 で作成されたデー タを入力する。 ま た、 映像内にあるテ キス ト または図形を探索キー と して指定して も よい。 探 索対象の映像がカ メ ラ映像の場合は、 探索キーに基づい て、 カ メ ラ を選択 し、 さ ら に カ メ ラ の向きや レ ン ズの制 御を行ない、 探索キーが映る よ う にする。 探索キーに適 合する事物が映っている映像にグラ フ ィ ッ ク スを適宜合 成する こ とによ って、 探索キーに適合する部分が映像内 の どこ にあるかを明示 して も よい。 こ のよ う に、 探索キ 一に基づいて映像を表示する こ とによ り、 操作者は見た い ものを言葉や図形で示すだけで、 見たい映像を得る こ とができ る。
映像を表示し、 前記映像上で領域を指定し、 前記指定 した領域に対して処理を定義する こ とによ って、 映像内 の事物が指定された ときに実行すべき処理の内容を定義 する。 これによ つて、 映像内の事物を直接操作する よ う なマ ンマシンを作成でき る。
図面の簡単な説明
図 1 Aは本発明の概念的構成を説明するためのプロ ッ ク図である.。
図 1 B は本発明の各実施例と図 1 Aの概念的構成図と の対応関係を説明するための図である。
図 2 は本発明による映像又は情報処理方法及び装置を 適応した本発明の一実施例であるブラ ン ト監視システム の全体構成例を示す図である。
図 3 は図 2 のマ ンマ シンサーバの一例のハ一 ドウ エア 構成を示す図である。
図 4 は本実施例のプラ ン ト運転監視システムにおける 表示画面の構成例を示す図である。 .
図 5 は表示画面の図面表示領域の画面表示形態例を示 す図である。
図 6 は映像表示領域の画面表示形態と現場との対応を 示す図であ る。
図 7 A、 7 B はオブジ ェ ク ト指定による カ メ ラパラ メ 一 夕設定の一例を示す図。
図 8 A、 8 B はオブジ ェ ク ト指定による 力 メ ラ ノ、。ラ メ 一夕設定の一例を示す図。
図 9 はォブジ ェ ク ト指定によ るボタ ン操作の一例を示 す図。
図 10はォブジ ヱ ク ト指定によ るスラ イ ダ操作の一例を 示す図。
図 11A、 11 B はそれぞれ図形選択による操作の一例を 示す図。 '
図 12は操作可能なオブジ ェ ク トを明示した例を示す図 図 13は探索キーによる映像探索の例を示す図。
図 14は 3 次元モデルの例を示す図。
図 15は 3 次元モデルと画面上の映像との関係を示す図 図 16は画面上の点 とオブジェ ク ト との関係を示す図。 図 17は 3 次元モデルを用いたオブジ ェ ク ト同定処理の 手順を示すフ ロ ー チ ャ ー ト 。
図 18は実施例の実現方法の手順を示すフ ロ ー チ ヤ 一 ト 図 19A、 19B は 2 次元モデル と力 メ ラ ノくラ メ 一 夕 との 関係を示す図。
図 20 A、 20 B は 2 次元モデルと別の力 メ ラ ノ、。ラ メ 一夕 との関係を示す図。 図 2 1 A、 2 1 B は 2 次元モデルと更に別の力 メ ラパラ メ 一 夕 との関係を示す図。
図 22は 2 次元モデルを用いたオブジ ェ ク ト 同定処理の 手順を示す図。
図 23はカ メ ラ デ一夕テーブルの構造を示す図。
図 24は力 メ ラ ノ、' ラ メ ータデータの構造を示す図。
図 25は領域フ レ ー ムのデータ構造を示す図。
図 29は本発明の別の実施例による監視シス テムの構成 を示す図である。
図 30は第 29図のワー ク ス テー ジ ョ ン の構成例を示す図 である。
図 3 1は映像音声記録部の構成例を示す図である。
図 32はディ スプレイ表示画面の一例の説明図で'ある。 図 33はディ スプレイ に表示する ト レ ン ドグラ フの一例 の説明図である。
図 34は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 35 A、 35 B は映像、 音声の再生方向、 速度を決定す る ビデオコ ン ト ロ一ラーの説明図である。
図 36 A〜 36 Gは別な実施例で使用するプロ セ スデータ 映像データ等のデータ構造の説明図である。
図 37は映像音声記録部に映像、 音声を記録する動作例 を示すフ ロ ー チ ヤ 一 トである。
図 38は記録 した映像を表示する動作例を示すフ ロ ーチ ヤ ー 卜である。 図 39は本発明の別な実施例を実現するための動作'例を 示すフ ロ ーチ ヤ一 トである。
図 40は本発明の別な実施例における ディ スプ レ イ表示 の説明図である。
図 4 1は本発明の別な実施例を実現するための動作例を 示すフ ロ一チ ヤ一 トである。
図 42は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 43は本発明の別な実施例を実 する動作例を示すフ ロ ーチ ャ ー トである。
図 44は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 45は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 46は本発明の別な実施例を実現する動作例を示すフ ロ ーチ ャ ー トである。
図 47は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 48は本発明の別な実施例を実現する動作例を示すフ ロ ーチ ャ ー トである。
図 49は本発明の別な実施例におけるディ スプレ イ表示 の説明図である。
図 50は本発明の別な実施例におけるディ スプレ イ表示 の説明図である。
図 5 1は本発明の別な実施例における ディ スプ レ イ表示 の説明図である。
図 52は本発明の別な実施例におけるディ スプレ イ表示 の説明図である。
図 53は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 54は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 55は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 56は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 57は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 58は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 59は本発明の別な実施例におけるディ スプレイ表示 の説明図である。
図 60は本発明の別な実施例における制御部内での選択 対象の決定方法の説明図である。 '
発明を実施するための最良の形態
本発明の実施例を説明する に先立ち、 本発明の概念を 図 1 Aを用いて説明する。 尚、 図 1 B は本概念図の構成 要素と後述する第 1 、 第 2 実施例の構成要素との対応関 係を示す図である。
図 1 Aにおいて、 ォブジェ ク ト情報格納部は、 映像出 力部 (映像撮影/記録 Z再生部) が出力する映像に映つ ている プラ ン ト 内の各種機器 (オブジ ェ ク ト ) に関する 情報 (機器の位置、 形状情報、 制御情報、 マ二ユ アル情 報、 設計情報な ど) を格納する。 以下では、 運転、 監視 の対象となる あ らゆる機器、 装置をオブジ ェ ク ト と総称 する こ とにする。 映像出力部は現在撮影中のプラ ン ト内 の映像や、 過去に記録された映像を出力する。 グラ フ ィ ッ ク ス生成部は、 プラ ン トの系統図や、 各オブジ ェ ク ト の制御情報、 マニ ュ ア ル情報な どをグラ フ ィ ッ ク ス と し て出力する。 グラ フ ィ ッ ク ス生成部からのグラ フ ィ ッ ク ス出力 と、 映像出力部からの映像出力 とは、 映像 Zグラ フ ィ ッ ク ス合成部によ って合成され表示部に表示さ.れる 画面位置指示部によ り、 表示部上の位置が指定される と オブジ ェ ク ト同定 処理実行部は、 前記指定位置とォブ ジ ク ト情報格納部に記億されているオブジ ェ ク ト情報 に基づいて、 表示部上の前記指定位置に表示されている オブジ ェ ク トを同定する。 次に、 オブジェ ク ト同定ノ処 理実行部は前記同定 したオブジ ェ ク ト に対応する処理を 実行する。 例えば、 映像出力部を制御 して前記同定され たォブジ ェ ク ト に関連する映像を表示部に表示 した り、 前記ォブジ ェ ク 卜 に関連する制御情報をォブジ ェ ク ト情 報格納部から取 り だ し、 グラ フ ィ ッ ク ス生成部を制御 し て前記取り 出 した情報を表示部にグラ フ ィ ッ ク表示する 即ち、 図 1 Aにおいてオブジ ェ ク ト情報格納部は、 表 示部の画面に表示されるオブジ ェ ク ト に関する情報をス ト ァ し、 一点鎖線で囲んだ部分は該情報に基づいて該ォ ブジ ェ ク 卜 に関する処理 (例えば、 画面位置指示部によ り指定された情報に対応するォブジ ク ト情報格納部内 の情報を同定する処理や、 該情報に基づいてグラ フ ィ ッ ク スを表示する処理等) を行う。
オブジ ェ ク ト に関する情報とは、' 第 1 実施例ではォブ ジェ ク 卜 に関する グラ フ ィ ッ ク情報、 位置情報等を示す と共に、 第 2 実施例ではォブジ ヱ ク ト に関する制御のた めのデー タ (制御データ又は制御情報) 、 ォブジェ ク ト に関する音又は映像データを示すと共に、 制御データ と 音又は映像データを関連づける情報を示す。
また図 1 Aで一点鏆線で囲まれた部分は、 第 2実施例 においては、 上記関連づける情報に基づいて制御デ一夕 と音又は映像データ とを関連づける ものである。
以下に本発明の実施例を図面を参照して説明する。 先 ず、 本発明の映像又は情報処理方法及び装置を適用 した 本発明の一実施例 (第 1 実施例) であるプラ ン ト運転監 視シス テムを図 2 から図 28までを用いて説明する。
本実施例の全体構成を図 2 を用いて説明する。 図 2 に おいて、 1 0 はグラ フ ィ ッ ク スや映像を表示する表示手 段となるディ スプレイ、 1 2 はディ スプレイ 1 0 の全面 に取付けられた入力手段となる感圧夕 ツ チパネル、 1 4 は音声を出力するためのス ピーカ、 2 0 は操作者がブラ ン ト の監視、 および運転操作を行な う ためのマ ン マ シ ン を提供するマ ン マ シ ンサーバ、 3 0 は複数の映像入力お よ び複数の音声入力か ら一つの映像入力お よ び音声入力 を選択する ためのス ィ ッ チ ヤ 、 5 0 はプラ ン ト 内の機器 を制御 した り、 セ ン サか らのデ一 夕を収拾する制御用計 算機、 5 2 は制御用計算機 5 0 とマ ンマ シ ンサーバ 2 0 やその他の端末、 計算機類とを接続する情報系ロ ー カ ル エ リ ア ネ ッ ト ワー ク (以下 L A N と称す) (例えば I E E E 8 0 2 . 3 で規定される よ う な L A N ) 、 5 4 は制 御用計算機 5 0 と、 制御対象である各種機器、 および各 種セ ンサとを接続する制御系 L A N (例えば I E E E 8 0 2 . 4 で規定される よ う な L A N ) 、 6 0 、 7 0、 8 0 はブラ ン ト内の各所に置かれ、 被制御物となるォブジ ェ ク トを撖影し、 入力するための産業用 ビデオカ メ ラ (以下単に I T Vカ メ ラ と呼ぶ) 、 6 2 , 7 2 , 8 2 は 制御用計算機 5 0 からの指令に従つ!:、 それぞれカ メ ラ 6 0 , 7 0 , 8 0 の向きやレ ンズを制御するためのコ ン ト ローラ、 6 4 , 7 4 , 8 4 は、 それぞれカ メ ラ 6 0 , 7 0 , 8 0 に取付けられたマイ ク、 9 0 , 9 2 はプラ ン ト各部の状態を知るための各種セ ンサ、 9 4 , 9 6 は制 御用計算機 5 0 の指令に従って、 プラ ン ト内の各種の機 器を制御するァ ク チユエ一 夕である。
感圧夕 ツ チパネル 1 2 は P Dの一種である。 夕 ツ チパ ネル 1 2 上の任意の位置を指で押すと、 押された位置座 標と、 押された圧力をマ ンマ シ ンサーバに報告する。 夕 ツ チパネル 1 2 はディ スプレ イ 1 0 の全面に取付け られ る。 夕 ツ チパネル 1 2 は透明で、 夕 ツ チノ、。ネル 1 2 の後 ろにある ディ スプレ イ 1 0 の表示内容を見る こ とができ る。 これによ り、 操作者はディ スプレ イ 1 0 上に表示さ れたォブジ ェ ク ト を.指で触る感覚で指定する こ とができ る。 本実施例では、 夕 ツ チパネル 1 2 の操作と して、 ( 1 ) 軽 く 押す、 ( 2 ) 強 く 押す、 ( 3 ) ドラ ッ グする の 3 種類を用いる。 ドラ ッ グする とは、 夕 ツ チパネル 1 2 を指で押したま ま措を動かすこ とをいう。 本実施例 では P D と して感圧夕 ツ チパネルを用いたが, 他のデバ イスを用いて も よい。 例えば、 感圧でないタ ツ チパネル、 夕ブレ ッ ト、 マウス、 ライ トペン、 アイ ト ラ ッ カ、 ジ ェ スチヤ入力装置、 キーボー ドなどを用いてもよい。
カ メ ラ 6 0 , 7 0 , 8 0 で撮影されている複数の映像 は、 スィ ッ チャ 3 0 で一つに選択されマ ンマシ ンサーバ 2 0 を介してディ スプレイ 1 0 上に表示される。 マ ンマ シ ン サ一ノく 2 0 は R S 2 3 2 Cな どの通信ボー トを介し てスィ ッ チャ 3 0 を制御し、 所望のカ メ ラからの映像を 選択する。 本実施例では、 映像を選択する と、 同時にマ イ ク 6 4 , 7 4 , 8 4 な どからの入力音声も選択される c すわなち、 カ メ ラを選択する と、 選択されたカ メ ラ に付 随するマイ クからの入力に音声も切り替わる。 マイ クか ら入力された音声はス ピーカ 1 4 から出力される。 も ち ろん、 マイ ク とカ メ ラからの入力を独立に切り替える こ と もでき る。 マ ンマシ ンサーノく 2 0 はカ メ ラからの映像 にグラ フ ィ ッ ク スを合成する こ とができ る。 また、 マ ン マ シ ンサーバ 2 0 は情報系 L A N 5 2 を介して制御用計 算機に操作指令を送 り カ メ ラ の撮影方向、 姿勢、 画角、 位置を指定する。 こ の カ メ ラ の撮影方向、 姿勢、 画角、 位置な どカ メ ラ に関する ノ、。ラ メ 一 夕 を力 メ ラ ノくラ メ 一 夕 と呼ぶ こ と にする。
さ らに、 マ ン マ シ ンサーバは、 操作者の指令に従っ て . 制御用計算機 5 0 を介 して、 セ ンサ 9 0, 9 2 な どか ら デー タ を入力 した り 、 ァ ク チ ユ エ一 夕 9 4, 9 6 な どを 遠隔操作する。 マ ンマ シ ンサーバ 2 0 は、 ァ ク チ ユ エ一 夕 に操作指令を送る こ と によ っ て、 プラ ン ト 内の各種機 器の動きや機能を制御する。
図 3 を用いてマ ン マ シ ンサーバの構成を説明する。 図 3 におレ、て、 3 0 0 は C P U ( central processing unit), 3 1 0 は メ イ ン メ モ リ 、 3 2 0 はディ ス ク、 3 3 0 は P D、 夕 ツ チパネル 1 2 , スィ ッ チ ャ 3 0 な どを 接続するための入出力装置 ( I / 0 ) 、 3 4 0 は C P U 3 0 0 によ っ て生成された表示デー タ を格納する グラ フ ィ ッ ク ス用 フ レ ームノく ッ フ ァ 、 3 6 0 は入力 されたアナ π グの映像情報をデジ タ ル化する デジタ イ ザ、
3 7 0 はデジ タ イ ザ 3 6 0 の出力である デジ タ ル化さ れ た映像情報を記憶する ビデオ用 フ レ ー ムバ ッ フ ァ 、
3 8 0 はグラ フ ィ ッ ク 用 フ レ ー厶 ノく ッ フ ァ 3 4 0 と ビデ ォ用 フ レ ー 厶 ノく ッ フ ァ 3 7 0 の内容を合成 してデ ィ ス プ レ イ 1 0 に表示する ブ レ ン ド回路であ る。
カ メ ラか ら入力 した映像情報はマ ンマ シ ンサーバ 2 0 で生成 した グラ フ ィ ッ ク ス と合成 した後、 デ ィ スプ レ イ 1 0 に表示する。 グラ フ ィ ッ ク 用 フ レ ー厶 ノく ッ フ ァ 3 4 0 にはデ ィ スプ レ イ 1 0 上の各画素に対応して、 赤 ( R ) , 綠 ( G ) , 青 ( B ) 各色のデータ と、 ひ値と呼 ばれるデー タを持つ。 α値は、 ビデオ用フ レ ー ムバ ッ フ ァ 3 7 0 内の映像情報と、 グラ フ ィ ッ ク用 フ レームノく ッ フ ァ 3 4 0 内のグラ フ ィ ッ ク表示データ との合成の仕方 をディ スプレイ 1 0 の各画素ごとに指定する。 ブレ ン ド 回路 3 8 0 の機能は、
d = f ( g , ν , a )
で表せる。 ただし、 g と α はそれぞれグラ フ ィ ッ ク用 フ レームバッ フ ァ 3 4 0 内の一つの画素の色情報と α値で あ り、 V は ビデオ用フ レ ームノく ッ フ ァ 3 7 0 内の g に対 応する位置にある画素の色情報、 d は g と V とを合成し た結果の画素の色情報である。 本システムでは関数 f と しては下式を用いる。
f (g, V, a )= [ { a g + (255- a )v} /255]
但し、 f , g , v, αは整数、 かつ
0 ≤ f , g, v , a ≤ 2 5 5
である。 また、 [ ] は少数点以下を四捨五入する こ と を示す記号である。
もちろん、 関数 f と して他の ものを用いても よい。
グラ フ ィ ッ ク用 フ レ ームバッ フ ァ 3 4 0 はいわゆる ダ ブル ノく ッ フ ァ と呼ばれる構成になっている。 ダブルバッ フ ァ は、 2 画面分のノく ッ フ ァ をもち、 ディ スプレイ 1 0 に表示するバッ フ ァ を随時選択でき る。 ディ スプレイ 1 0 に表示されてし、る方のバ ッ フ ァ を表バ ッ フ ァ、 表示 されてい な い方のバ ッ フ ァ を裏バ ッ フ ァ と呼ぶこ とにす る。 表バ ッ フ ァ と裏ノ ' ッ フ ァ との切 り 替えは瞬時にでき る。 裏バ ッ フ ァ にグラ フ ィ ッ ク ス描画し、 描画が終了 し た時点で裏バ ッ フ ァ を表バ ッ フ ァ に切り替える こ とによ り描画時のち らつきをす く な く でき る。 どち らのバ ッ フ ァの内容も C P Uから随時読み出 した り書き出 した りで き る o
本実施例では、 上記のよ う に、 マ ン マ シ ン サ 一 ノく 2 0 内で、 映像情報をデジタル化 した後、 グラ フ ィ ッ ク ス と 合成する方法を用いているが、 映像情報と グラ フ ィ ッ ク ス とをアナロ グ信号の レベルで合成する外部装置を用い て、 マ ン マ シ ンサー ノく 2 0 から出力される ビデオ信号と . カ メ ラ 6 0 な どからのテ レ ビ信号とを合成してディ スプ レイ 1 0 に表示して も よい。 マ ンマシ ンサー ノく 2 0 のよ う な計算機と、 カ メ ラ 6 0 な どからのテ レ ビ信号とを合 成する装置 (映像合成装置と呼ぶこ とにする) はすでに 市販されている。
また、 本実施例では、 グラ フ ィ ッ ク ス と映像とを同一 ディ スプレイ (ディ スプレイ 1 0 ) に表示しているが、 それ らを別々 なディ スプレ イ に表示 して も よい。 例えば マ ンマ シ ンサー ノく 2 0 に情報系 L A N 5 2 を介 して グラ フ ィ ッ ク端末を接続し、 前記映像合成装置を用いて力 メ ラか らの映像情報を全面に表示する。 マ ンマシ ンサーバ 2 0 で生成される グラ フ ィ ッ ク スは主にディ スプ レ イ 1 0 に表示する。 グラ フ ィ ッ ク端末には感圧夕 ツ チパネ ル 1 2 と同様の夕 ツ チパネルまたはマウスな どのポィ ン テ ィ ン グデバイ スを装備する。 マ ンマ シ ンサ 一 ノく 2 0 は あ らか じめ定め られたプロ ト コ ルに従ってグラ フ ィ ッ ク 情報をグラ フ ィ ッ ク端末に出力する こ とによ り、 グラ フ ィ ッ ク端末に表示された映像上にグラ フ ィ ッ ク スを重ね て表示でき る。 こ のよ う に映像情報をディ スプレイ 1 0 とは別のグラ フ ィ ッ ク端末に表示する こ とによ り、 よ り 多 く のグラ フ ィ ッ ク ス情報をディ スプレイ 1 0 に表示で き るよ う になる。
図 4 にディ スプレイ 1 0 の表示画面構成の一例を示す 図 4 において、 1 0 0 はディ スプレイ 1 0 の表示画面、 1 1 0 はシステム全体に関する コマ ン ドを指定するため のメニュー領域、 1 5 0 はセ ンサからのデータや、 ブラ ン トに関する様々 な資料やデータを表示するためのデー タ表示領域、 1 3 0 はプラ ン ト全体や、 各部分の構成図 構造図、 設計図面な どを表示する図面表示領域、 2 0 0 はカ メ ラから入力された映像を表示する映像表示領域で あ o
図 5 は図面表示領域 1 3 0 の表示形態の一例である。 図 5 において、 1 3 2 はセ ンサの設置してある場所を明 示する コマ ン ドを発行するための メニュ ー、 1 3 4 は操 作者が指定した図面上の一つのオブジ ェ ク トである。 操 作者が図面表示領域 1 3 0 に表示された図面内のォブジ ェ ク ト を選択する と、 そのオブジェ ク ト に関連するセ ン ザか らの情報がデー タ表示領域 1 5 0 または映像表示領 域 2 0 0 上に表示される。 例えば、 指定 したオブジ ェ ク 卜 に関連するセ ンサ と して、 カ メ ラが定義されている と . そのカ メ ラか ら入力 された映像が映像表示領域 2 0 0 に 表示される。 ま た、 例えば、 措定されたオブジ ェ ク ト に 関連するセ ンサと して油圧セ ンサが定義されている場合 には、 現在の油圧値を明示する グラ フ ィ ッ ク スや、 これ までの油圧値の変化を示す ト レ ン ドグラ フがデータ表示 領域 1 5 0 に表示される。 タ ツ チパネル 1 2 上を指で強 く 押すと、 押 した位置に表示されている図面上のォブジ ェ ク 卜が指定される。 指定したオブジェ ク ト に関連する セ ンサが定義されていない場合は何も起こ らない。 図 5 ではォブジヱ ク ト 1 3 4 の表示位置を指で強 く 押した と こ ろを示している。 オブジェ ク ト は指で押される と、 ォ ブジ ェ ク トが指定されたこ とを操作者が確認でき る よ う に強調表示される。 図 5 に示す例では、 オブジ ェ ク ト 1 3 4 にはオブジ ェ ク ト 1 3 4 を映すカ メ ラ 6 0 と、 ォ ブジ ェ ク ト 1 3 4 の周囲の音を入力するためのマイ ク 6 4 が、 関連するセ ンサと して定義されてお り、 ォブジ ェ ク ト 1 3 4 が指定される と、 映像表示領域 2 0 0 にォ ブジ ヱ ク ト 1 3 4 を映す映像が表示され、 ス ピーカ 1 4 からはォブジ ェ ク ト 1 3 4 の周囲の音が出力 される。
図 6 に、 オブジ ェ ク ト 1 3 4 が図面表示領域 1 3 0 上 で指定された と きの映像表示領域 2 0 0 の一表示形態と プラ ン ト内に配置されたオブジ ェ ク ト 1 3 4 との対応関 係を示す。 図 6 において、 2 0 2 〜 2 1 0 は、 現在表示 されている映像を撮影 している 力 メ ラのカ メ ラパラ メ一 夕 を設定するための メ ニュ ー、 2 2 0 は映像内の指定可 能なオブジ ェ ク トを明示するためのメ ニュ ーである。
2 0 2 はカ メ ラの向きを設定するためのメニュ ーである( メ ニュ ー 2 0 2 を選択する こ とによ り、 カ メ ラを左右に ノ、。ンさせた り、 上下にパンさせた りできる。 2 0 4 は力 メ ラの画角を制御して映像をズームィ ンするためのメ ニ ユ ー、 2 0 6 はカ メ ラの画角を制御して映像をズームァ ゥ トするためのメ ニュ ー、 2 0 8 は力 メ ラ ノくラ メ 一夕を 一つ前の力 メ ラパラ メ 一タに設定しなおすためのメニュ ―、 2 1 0 は最初のカ メ ラパラ メ 一夕に設定しなおすた めのメ ニューである。
4 0 0 〜 4 2 4 はォブジヱ ク ト 1 3 4 に付随する、 ま たは周辺にある各種オブジェ ク トである。 4 0 0 はバル ブ、 4 1 0 , 4 2 0 は、 オブジェ ク ト 1 3 4 上に書かれ た文字表示、 4 1 2 は電圧を示すメ ータ、 4 1 4 は電源 を入れるためのボタ ン、 4 1 6 は電源を切るためのボタ ン、 4 2 2 は油圧を示すメ 一夕、 4 2 4 は油圧を調節す るスライ ダのつまみである。 バルブ 4 0 0 、 ボタ ン
4 1 4 , 4 1 6 、 つまみ 4 2 4 は実際に手で操作する こ とのでき る操作器である と と もに、 マ ンマシ ンサーバ 2 0 から操作指令を出すこ とによ って遠隔操作もでき る操 作器である。
映像表示領域 2 0 0 内を操作者が措で軽く 押すと、 指 の位置に表示さ れている ォブジ ニ ク 卜 が見やす く な る様 にカ メ ラ ワ ー ク が設定さ れる。 図 7 A、 7 B は、 映像表 示領域 2 0 0 で、 メ 一 夕 4 1 2 に指で軽 く 触る と、 メ 一 夕 4 1 2 が映像の真ん中に く る よ う にカ メ ラ パラ メ 一 夕 が設定される様子を示 している。 図 7 Aのよ う に メ ー タ 4 1 2 が操作者に指定される と、 メ ータ 4 1 2 が映像の 中央に映る よ う にカ メ ラ 6 0 の向きが設定され、 さ らに メ ータ 4 1 2 がズームイ ン される よ う にカ メ ラ 6 0 の レ ンズが制御され、 映像が図 7 B に示すよ う に変化する。 操作者は単に画面上でオブジ ェ ク ト に触れるだけで、 そ のォブジ ェ ク トがよ り はっ き り 見える よ う なカ メ ラパラ メ ータを設定でき、 カ メ ラの遠隔操作に煩わされる こ と がない。 図 7 Aにおいて、 5 0 2 はメ ータ 4 1 2 が指定 された こ とを明示するためのグラ フ ィ ッ クエコーである グラ フ ィ ッ クエコー 5 0 2 は操作者がタ ツ チパネル 1 2 から指をはなすと消去される。 このよ う に、 カ メ ラ映像 上にグラ フ ィ ッ クの表示を合成する こ とによ り、 マ ンマ シ ンィ ン タ フ ヱースを改善でき る。
図 8 A , 8 B は、 映像表示領域 2 0 0 で、 ノくルブ 4 0 0 に指で軽く 触る と、 ノくルブ 4 0 0 が映像の真ん中 に く る よ う にカ メ ラ ワー クが設定される様子を示 してい る。 図 8 Aのよ う にバルブ 4 0 0 が操作者に指定さ れる と、 図 8 B に示すよ う にバルブ 4 0 0 が中央に大き く 映 る よ う な映像に変化する。 図 8 Aにおいて、 5 0 4 はバ ル ブ 4 0 0 が指定さ れた こ と を明示する ための グラ フ ィ ッ クエコ ーである。 グラ フ ィ ッ クエコー ' 5 0 4 は操作者 が夕 ツ チパネル 1 2 から指をはなすと消去される。 他の オブジ ェ ク ト 4 1 0 , 4 1 4 , 4 1 6 , 4 2 0 , 4 2 2 , 4 2 4 に関 して も同様の操作が可能である。
映像表示領域 2 0 0 内を操作者が指で強 く 押すと、 指 の位置に表示されているォブジ X ク トを操作でき る。 図 9 〜図 1 1 にオブジェ ク トを操作する例を示す。
図 9 はボタ ン 4 1 4 を操作する例を示している。 映像 表示領域 2 0 0 上で、 ボタ ン 4 1 4 が表示されている位 置を指で強く 押すと、 マ ンマシンサーバ 2 0 から制御用 計算機 5 0 を介して、 遠隔にあるボタ ン 4 1 4 を操作す るァクチユエ一夕に、 ボタ ン 4 1 4 を押し下げる という 操作指令が送られ、 遠隔の現場にあるボタ ン 4 1 4 か実 際に押し下げられる。 ボタ ン 4 1 4 が押し下げられ、 そ の結果と してメ ータ 4 1 2 の針がふれる様子はカ メ ラ 6 0 によ って映像表示領域 2 0 0 に映しだされる。 これ によ って、 操作者は画面上で実際にボタ ンを押し下げた かのよ う な感覚を得る。
図 1 0 はタ ツ チノ ネル 1 2上での指の ドラ ッ グによ つ てスライ ダのつまみ 4 2 4 を操作する例を示している。 映像表示領域 2 0 0 上で、 ボタ ン 4 1 4 が表示されてい る位置を強 く 指で押しながら指を横に動かすと、 映像に 映しだされているつまみ 4 2 4 も指の動きに合わせて動 く 。 つまみ 4 2 4 が動いた結果、 メ ータ 4 2 2 の針も動 く 。 この とき、 マ ンマシンサ 一 ノく 2 0 は、 指が動 く 度に、 制御用計算機 5 0 を介 してつまみ 4 2 4 を制御するァ ク チ ユエ一 夕 に指令を出 し、 指の動き にあわせてつまみ 4 2 4 を実際に動かす。 これによ つて、 操作者は自分の 指でつまみ 4 2 4 を実際に動か している よ う な感覚を得 る。
図 9 〜 1 0 のよ う に、 映像に映っている操作器 4 1 4 , 4 2 4 な どを映像上で直接操作する利点は、 下記である , ( 1 ) 操作室にいながらに して現場にいる感覚で操作で き る。 映像は現場の機器の配置や、 機器の雰囲気 (形状. 色な ど) をあ り のま ま に伝える こ とができ る。 このため. 各機器の機能や、 それを操作した ら何が起こ るかな どを 推測、 学習、 想起するのが容易にてる。 例えば、 図 9 に おいてボタ ン 4 1 4 ^押せば、 機器 1 3 4 の電源が入る という こ とは容易に推測でき る。
( 2 ) 操作の結果と して現場で何が起きているかを目で 見れる。 例えば、 ボタ ン 4 1 4 を押 した と き、 機器
1 3 4 から煙りが出れば、 運転員はす ぐその煙り をみる こ とができ、 何か誤操作を したこ とに気がつ く 。
従来のグラ フ ィ カルマ ンマシ ンィ ン 夕一フ ェ ースでは 操作器はグラ フ ィ ッ ク スで表現される。 グラ フ ィ ッ ク ス で表現される際には、 抽象化、 簡略化、 誇張が行われる ため、 実際の機器と グラ フ ィ ッ ク ス表現との対応付けが 困難になる。 画面の大き さ も限られているため、 グラ フ ィ ッ ク スは現場の機器の実際の配置とは無関係に配置さ れる。 このため、 グラ フ ィ ッ ク操作器が、 現場の どの機 器を制御するのか、 直感的に理解 しに く く なる。 また、 操作結果 も グラ フ ィ ッ ク ス で表現されるため異常を直感 的に摑むのが難しい。
図 1 1 Aは、 操作対象のオブジ ェ ク ト上またはその近 傍に合成表示 したグラ フ ィ ッ ク スを操作する こ とによ つ て、 オブジ ェ ク ト を操作する例を示す。 図 1 1 Aにおい て、 5 1 0 , 5 2 0 は、 操作者がバルブ 4 0 0 の表示位 置を指で強 く 押した と きに映像に合成表示される グラ フ ィ ッ ク スである。 操作者が図形 5 1 0 を強 く 指で押すと、 マ ン マ シ ンサーバ 2 0 は、 制御用計算機 5 0 を介 して、 ァ ク チユエ一夕に操作指合を出 し、 バルブ 4 0 0 を左に 回転させる。 逆に、 グラ フ ィ ッ ク ス 5 1 2 を強 く 指で押 すと、 マ ンマ シ ンサーバはバルブ 4 0 0 を右に回転させ る操作指令をァ クチユエ一夕に送る。 バルブ 4 0 0 の回 転する様子はカ メ ラ 6 0 によ って撮影され映像表示領域 2 0 0 に映しだされる。 バルブ 4 0 0 の回転に合わせて、 グラ フ ィ ッ ク ス 5 1 0 , 5 1 2 の表示を回転させて も よ い。 図形 5 1 0 , 5 1 2 のよ う に操作のために画面上に 表示されたグラ フ ィ ッ クスをグラ フ ィ ッ ク ス操作器と呼 ぶこ とにする。
グラ フ ィ ッ ク ス操作器 ( graphic control device) の 別な例を図 1 1 B に示す。 図 1 1 B において、 4 2 6 は オブジェ ク ト 1 3 4 の下部に接続されたパイ プ、 8 0 0 は映像上にグラ フ ィ ッ ク ス と して合成表示されたスラ イ ダ、 8 1 0 はスラ イ ダ 8 0 0 の操作つまみ、 4 2 8 はノ、。 イ ブ 4 2 6 上に合成表示された グ'ラ フ ィ ッ ク スでパイ プ 4 2 6 内の流量の変化を示す。 操作者が映像表示領域 2 0 0 上でパイ プ 4 2 6 を強 く 押す と、 ス ラ イ ダ 8 0 0 がパイ プ 4 2 6 の近傍に合成表示される。 さ らに、 現在 のパイ プ流量を示すグラ フ ィ ッ ク ス 4 2 8 がパイ プ
4 2 6 上に合成表示される。 グラ フ ィ ッ ク ス 4 2 8 は イ ブ 4 2 6 内の流量に応 じて例えばその幅と色が変化す る。 流量が多 く なる と幅が広がり、 少な く なる と細 く な る。 操作者が指でスラ イ ダ 8 0 0 のつまみ 8 1 0 を ドラ ッ グする と、 つまみ 8 1 0 の移動に応じてパイ プ 4 2 6 内の流量を制御する指合がマ ンマシ ンサーバ 2 0 から制 御用計算機 5 0 に送られる。 更に、 計算機からァ ク チュ エー 夕、 例えばポンプに操作指合が出されてポンプを制 御する。 これによ りパイ プ 4 2 6 内の流量が変化する と . その変化に応じてグラ フ ィ ッ ク ス 4 2 8 の表示形態が変 化する。
図 1 1 A , 1 1 Bのよ う に、 グラ フ ィ ッ ク操作器を、 監視映像に写っている機器の上または近傍に合成表示す る利点は下記である。
( 1 ) グラ フ ィ ッ ク操作器によ って実際に制御される機 器が現場の どの機器であるかを運転員に暗示でき る。 図
1 1 Aの例では、 グラ フ ィ ッ ク操作器 5 1 0 , 5 1 2 が 合成表示されたバルブ 4 0 0 を制御する こ とは運転員に は簡単に推測でき る し覚える こ と も容易である。 図 1 1 B の例では、 ス ラ イ ダ 1 8 0 0 が、 近 く に写っている イ ブ 4 2 6 内の流量を制御する という こ とは推測容易で あ o
( 2 ) 制御対象の機器の様子を見なが ら操作できる。 図 1 1 Bの例において、 グラ フ ィ ッ ク操作器 1 8 0 0 を操 作中に、 パイ プ 4 2 6 に亀裂が入っ た り、 液洩れが発生 すれば、 運転員はそれを目で確認する こ とができ、 すば や く 誤操作や異常に気づ く こ とができ る。
従来のグラ フ ィ 力 ノレマ ンマ シ ンィ ン タ 一 フ ェ ースでは, グラ フ ィ ッ ク操作器は現場の機器とは無関係に画面上に 配置されているため、 グラ フ ィ ッ ク操作器が実際に現場 のどの機器を制御するのかわかり に く かった。 また、 グ ラ フ ィ ッ ク操作器の表示されている場所と、 現場の監視 映像が表示されている場所とが離れていたため、 現場の 様子を見ながら操作するには何度も視線を移動しなけれ ばな らなかった。
図 1 1 Bではパイ プ 4 2 6 の映像の上に、 グラ フ イ ツ ク ス 4 2 6 を合成表示して、 パイ プ 4 2 6 の流量を示し ている。 このよ う に、 映像に映っている機器の上に、 グ ラ フ ィ ッ ク スを合成する こ とによ って、 機器の内部状態 な どの映像には映らない情報を補う こ とができ る。 これ によ って、 例えば、 機器の内部状態と外部状態を同時に 参照する こ とができ、 機器の伏態を総合的に監視、 判断 でき る よ う になる。
図 1 2 に操作可能なオブジェ ク ト明示する方法を示す。 映像に映っている事物すべてが操作可能とは限らないの で、 操作可能なオブジ ェ ク ト を明示する手段が必要にな る。 図 1 2 において、 メ ニュ ー 2 2 0 を指で軽 く ふれる と、 グラ フ ィ ッ ク ス 5 1 4 〜 5 2 4 が表示される。 グラ フ ィ ッ ク ス 5 1 4 〜 5 2 4 は、 それぞれオブジ ェ ク ト 4 0 0 , 4 1 2 , 4 1 4 , 4 1 6 , 4 2 2 , 4 2 4 が操 作可能な こ とを明示する。 本実施例の場合は、 オブジ ェ ク 卜の外挿矩形を表示 している。 もちろん、 オブジ ェ ク 卜の明示には、 も っ と実物に近いグラ フ ィ ッ ク スを表示 するな ど、 他に も様々 な表示方法が考え られる。
さ らに、 操作可能なオブジ ェ ク トだけでな く 、 あ らゆ るォブジェ ク トを明示する手段を別途設けて も よい。 例 えば、 メニュー 2 2 0 を指で強 く 押すと映像に映ってい るオブジェ ク ト全てを明示する よ う に しても よい。
上記ォブジ X ク ト明示手段は、 操作可能なオブジ ェ ク ト を明示でき るだけでな く 、 例えば煙りや蒸気な どの視 界をさえぎる よ う な ものが発生した と きに も、 操作や事 故原因の究明を可能にする。 操作対象のオブジ ェ ク トが 煙り に被われて も操作対象となるォブジ ェ ク 卜がグラ フ イ ツ ク スによ って明示されるので、 操作ができ る。 また どこ に何の機器があるかわかるので煙り の発生源をつき とめる こ と も可能になる。
図 1 3 に、 テキス ト を入力 して、 そのテキス トが表示 されている映像を探索する例を示す。 図 1 3 において、 5 3 0 は映像に合成表示されたグラ フ ィ ッ ク ス、 6 0 0 はテキス ト探索を実行するための探索シー ト 、 6 1 0 は 探索キーによ って適合する別の映像を探索するための次 メ ニュ ー、 6 2 0 は探索を終了する こ とを指定するため の終了 メ ニ ュ ー、 6 3 0 は探索キーに入力するためのテ キス ト入力領域である。 メ ニ ュ ー領域 1 1 0 で探索を指 定する メ ニュ ーを選択する と、 探索シー ト 6 0 0 が表示 画面 1 0 0 上に表示される。 テキス ト入力領域 6 3 0 に キーボー ドから探索キ一 となるテ午ス トを入力 し、 リ タ — ンキ一を押すと、 探索が開始される。 マ ンマ シ ンサ一 バは探索キ一を含むよ う な事物を映せるカ メ ラを探索し. 探索したカ メ ラを探索キーがはっ き り見える よ う なカ メ ラ ワー ク に設定し、 探索したカ メ ラからの映像を映像表 示領域 2 0 0 に表示する。 映像内の探索キーに適合する 部分にはグラ フ ィ ッ クス 5 3 0 を合成表示して、 探索キ —に適合する部分を明示する。 テキス トを探索キ一 と し た映像探索によ って、 操作者は言葉によ って、 監視した い事物を映しだすこ とができ る。 この方法では、 カ メ ラ を切り替えた り、 カ メ ラの遠隔操作をする こ とな く 、 す ばや く 監視対象をみつける こ とができ る。 本実施例では テキス トの入力にキーボー ドを用いているが、 音声認識 装置や手書き文字認識装置な ど他の入力手段を用いて も よい。 また、 本実施例では、 探索キー と してテキス トを 用いたが、 探索キー と して図形を用い、 探索キーの図形 と適合する よ う な図形が表示されている よ う な映像を探 する よ う に して も よい。
本実施例の実現方法を図 1 4 から図 2 5 を用いて説明 する。 本実施例の主た る機能は、 映像内のォブ ジ ェ ク ト を指定 して、 そのオブジ ェ ク ト に基づいた動作を実行す る機能にあ る。 こ の機能を実現する プロ グラ ムの流れ図 を図 1 8 に示す。 映像表示領域 2 0 0 上で夕 ツ チパネ ル 1 2 が押さ れる と、 その押さ れた位置 (操作者が夕 ツ チ パネルな どの P D を使 っ て措定 した画面上の位置をィ べ ン ト位置と呼ぶ こ と にする) に映っ ている オブジ ェ ク ト を同定する (ステ ッ プ 1 0 0 0 ) 。 オブジ ェ ク 卜 が同定 でき た場合 (ィ ベ ン ト位置にオブジ ェ ク ト が存在する場 合) (ステ ッ プ 1 0 1 0 ) 、 そのオブジ ェ ク ト に対応 し て定義さ れている動作を実行する (ステ ッ プ 1 0 2 0 ) , イベ ン ト位置に映っ ている オブジ ェ ク ト は、 撮影.対象 のモデル と カ メ ラパラ メ ー タ とを参照 して同定する。 撮 影対象のモデルは、 撮影対象とな っている ォブジ ヱ ク ト の形状や、 位置に関する デー タである。 撮影対象のモデ ルはマ ンマ シ ンサー ノ ' 2 0 のディ ス ク 3 2 0 に保存さ れ プラ ン ト運転監視システム稼働時に、 メ イ ン メ モ リ
3 1 0 に読み上げ られる。 力 メ ラ ノくラ メ ー タ は、 撮影対 象のオブジ ェ ク ト をカ メ ラが どのよ う に撮影 しているか すなわちカ メ ラの位置、 姿勢、 画角、 向き な どのデー タ であ る。 カ メ ラ に現在設定さ れている 力 メ ラ ノくラ メ 一 夕 の値は、 カ メ ラ制御用 コ ン ト ロ ー ラ に問いあわせる とわ かる。 も ち ろん、 カ メ ラパラ メ 一 夕 をマ ン マ シ ン サ 一 ノく 2 0 で管理 して も よい。 すなわち、 マ ン マ シ ンサー バ 2 0 の メ イ ン メ モ リ 3 1 0 に 力 メ ラ ノ、。 ラ メ 一 夕 の現在値 を記憶する領域を確保し、 マ ンマ シ ンサーバ 2 0 がカ メ ラを遠隔操作する度に、 メ イ ン メ モ リ 3 1 0 に記憶され た力 メ ラ ノ、。ラ メ 一 夕 の値を更新する。 も ち ろん、 プラ ン ト運転監視システム稼働時にはマ ンマ シ ンサーバ 2 0 か ら全てのカ メ ラのパラ メ 一 夕を初期設定 してお く 。
撮影対象のモデル化の方法には様々 な ものが考えられ る。 本実施例では、 ( 1 ) 3 次元モデル、 ( 2 ) 2 次元 モデルの 2 つのモデルを併用する。 前記 2 つのモデルの 概要と、 長所、 短所を下記にま とめる。
( 1 ) 3 次元モデル
撮影対象の形状や位置を 3 次元座標系で定義したモデ ル。 長所は任意のカ メ ラパラ メ ータに対応してオブジェ ク トを同定でき る点。 すなわち、 カ メ ラを自由に操作し ながらオブジェ ク トを操作できる。' 短所は、 モデルを 3 次元空間で定義しなければな らないため、 モデルの作成 及びオブジェ ク ト の同定処理が 2 次元 ( 2 D ) モデルに 比べて複雑になる点。 ただし、 最近では、 プラ ン 卜の設 計や、 プラ ン ト内の装置の設計、 配置に C A D
(computer aided disign) を利用する場合も多 く 、 それ らのデ一夕を流用すれば 3 次元モデルの作成を容易にで き る。
( 2 ) 2 次元モデル
特定のカ メ ラパラ メ 一夕 ごとに、 2 次元座標系 (ディ スプレイ平面) でオブジェ ク トの形状や位置を定義する モデル。 長所はモデルの作成が容易な点。 画面上で図形 を描 く 要領でモ デ ルを定義でき る。 短所は、 あ らか じめ モデルを定義 してある 力 メ ラパラ メ 一 夕の映像に対 して しか操作できない点。 カ メ ラ操作の自由度を上げる には. よ り多 く の力 メ ラ ノ、。ラ メ 一 夕 ごとに、 対応する平面上で オブジ ェ ク ト の形状や位置を定義する必要がある。 多 く の運転監視シ ス テ ムでは、 あ らか じめ監視する場所が何 ケ所かに決っている場合が多い。 その場合には、 カ メ ラ パラ メ 一夕 も何種類かに決ま るため、 2 次元モデルの短 所は問題にな らない。
3 次元モデルに基づいてォブジヱ ク トを同定する方法 を図 1 4 から図 1 7 を用いて説明する。 図 6 に示 した力 メ ラ 6 0 の撮影対象を、 3 次元直交座標系 x y z (世界 座標系と呼ぶ) でモデル化した例を図 1 4 に示す。 こ こ では、 各ォブジ ヱ ク 卜の形状を平面、 直方体、 円筒な ど でモデル化している。 もちろん、 球や四面体な どよ り多 く の種類の 3 次元基本形状を用いて も よい。 また、 基本 形状の組み合せだけでな く よ り精密な形状モデルを用い て も よい。 操作対象となるオブジェ ク ト 4 0 0, 4 1 0 4 1 2 , 4 1 4 , 4 1 6 , 4 2 0 , 4 2 2 , 4 2 4 は、 モデル上ではそれぞれ平面 8 0 0, 8 1 0 , 8 1 2,
8 1 4 , 8 1 6 , 8 2 0 , 8 2 2 , 8 2 4 と してモデル 化されている。
図 1 5 を用いて、 カ メ ラ によ って撮影された映像と、 3 次元モデル との対応関係を説明する。 カ メ ラ による撮 影は、 3 次元空間内に配置されたオブジ ェ ク ト を 2 次元 平面 (映像表示領域 2 0 0 ) に投影する操作である。 す なわち、 映像表示領域 2 0 0 に表示された映像は、 3 次 元空間内に配置されたォブジ ェ ク トを 2 次元平面に透視 投影 した ものである。 画面上に と られた 2 次元直交座標 系 X s Y s を画面座標系 と呼ぶこ とにする と、 カ メ ラに よる撮影は、 世界座標系上の一点 ( x, y , ζ ) を画面 座標系上の一点 ( X s , Y s ) へ写像する式 ( 1 ) と し て定式化でき る。
式 ( 1 ) における行列 Tを ビュ ー変換行列と呼ぶ o ビ ユ ー変更行列 Tの各要素は、 カ メ ラノヽ。ラ メ 一タ (力 メ ラ の位置、 姿勢、 向き、 画角) および映像表示領域 2 0 0 の大き さが与えられれば一意に決定される。 カ メ ラノ^ フ メ ータ は世界座標系で与える。 図 1 5 において、 力 メ ラ の位置は レ ンズの中心 O e の座標、 カ メ ラ の姿勢はベ ク 卜 ル 0 e Y e 、 カ メ ラの向きはべク ト ル O e Z e 、 に対 応する。
ォブジ ェ ク ト の同定処理は画面座標系上の一点 Pが指 定されたとき に 、 世界座標系上の どの点が画面座標系上 の点 P に投影されたのかを決定する処理である。 図 1 6 に示すよ う に、 力 メ ラの レ ンズの中心 0 e と画面座標系 上の点 P とを結んだ直線の延長棣上にある点は、 全て点 Pに投影される。 その直線上の点の内、 カ メ ラ によ って 実際に映像表示領域 2 0 0 上に投影される点は、 レ ン ズ の中心 0 e に最 も近いォブジ ェ ク ト 1 と直線 との交点で ある。 図 1 6 においては、 オブジ ェ ク ト 1 と直線 8 4 0 との交点 P 1 が、 カ メ ラ によ って、 映像表示領域 2 0 0 上の一点 Pに投影される。 すなわち、 イベン ト位置が P である とする と、 オブジェ ク ト 1 が同定される こ とにな o
カ メ ラバラ メ ー タから ビュ ー変換行列 Tを求める技術 や、 ビュ ー変換行列 Tに基づいて世界座標系で定義され たモデルを画面座標系に透視投影して表示する技術はグ ラ フ ィ ッ ク ス分野ではよ く 知られた技術である。 また、 透視投影に当 り、 カ メ ラに近いオブジェ ク トの面を画面 に投影し、 他のォブジ ヱ ク ト によ ってカ メ ラカヽら隠され ている面を画面に投影しない処理は、 陰面除去 (hidden surface e 1 imi nat i on)または可視面決定 (Visible- Surface Determinat ion)と呼ばれ、 すでに多 く のァルゴ リ ズムが開発されている。 これらの技術は、 例えば、 Fo 1 ey. vanDam. Fe i ner. Hughes著、 " Computer Graphics Principles and Practice" Add i son Wes 1 ey 発行
( 1 9 9 0 ) や、 Newman. Sproul 1著、 "Princi les of Interactive Computer Graphi cs" McGraw-H i 11 発行 ( 1 9 7 3 ) な どに詳し く 解説されている。 また、 多 く のいわゆる グ ラ フ ィ ッ ク ワ ー ク ス テ ー シ ョ ン では、 カ メ ラパラ メ ー タから ビュ ー変換行列の設定、 透視投影、 陰 面投影な どのグラ フ ィ ッ ク機能がハー ドウエアゃソ フ ト ウェアによ ってあ らか じめ組み込まれてお り、 それらを 高速に処理する こ とができ る。
本実施例ではこれ らのグラ フ ィ ッ ク機能を利用 してォ ブジヱ ク ト の同定処理を行う。 3 次元モデルにおいて、 操作の対象となるオブジェ ク 卜の面をあ らか じめ色分け し、 色によ ってその面がどのオブジェ ク ト に属するのか を識別でき る よ う に してお く 。 例えば、 図 1 4 において- 平面 8 0 0 , 8 1 0 , 8 1 2 , 8 1 4 , 8 1 6 , 8 2 0 , 8 2 2 , 8 2 4 にそれぞれ別な色を設定してお く 。 ォブ ジェ ク ト ごとに設定された色を I D (identofier)色と呼 ぶこ とにする。 この I D色付 3 次元モデルを用いた同定 処理の手顒を図 1 7 に示す。 まず、 現在のカ メ ラパラ メ 一夕を問い合わせ (ステッ プ 1 3 0 0 ) 、 問い合わせた カ メ ラパラ メ ータに基づいて ビュー変換行列を設定する (ステ ッ プ 1 3 1 0 ) マ ンマ シ ンサ一ノく 2 0 では常に 現在のカ メ ラの状態を管理しておき、 カ メ ラパラ メ 一 夕 の問い合わせがある と、 現在のカ メ ラ状態に応じてカ メ ラパラ メ ータを返す。 もちろん、 現在のカ メ ラ状態を力 メ ラ制御用 コ ン ト ローラで管理する よ う に して も よい。 ステ ッ プ 1 3 2 0 では、 ステッ プ 1 3 1 0 で設定された ビュ ー変換行列に基づいて、 色分け したモデルをグラ フ ィ ッ ク用フ レームバッ フ ァ 3 4 0 の裏バッ フ ァ に描画す る。 こ の描画では透視投影および陰面除去処理が行われ る。 裏バ ッ フ ァ に描画するため、 描画 した結果はデ ィ ス プ レ イ 1 0 には表示されない。 描画か終了 した ら、 ィ べ ノ 、 卜 位置に対応する裏バ ッ フ ァ の画素値を読み出す ( ス チ ッ プ 1 3 3 0 ) 。 画素値は、 ィベ ン ト位置に投影され たオブ ジ ェ ク ト の I D色にな っ ている。 I D色はォブ ジ ェ ク ト と一対一に対応 してお り、 オブジ ェ ク ト を同定で き る o
図 1 9 Aから図 2 5 を用いて、 2 次元モデルに基づい てオブジ ェ ク ト を同定する方法を説明する。 2 次元モデ ルでは、 世界座標系から画面座標系に投影された後のォ ブジ ェ ク 卜 の位置や形状を定義する。 カ メ ラの向きや画 角が変れば、 画面座標系に投影されたォブジ ェ ク 卜の位 置や形状が変化する。 従って、 2 次元モデルでは、 個々 のカ メ ラパラ メ ー タ ごとに、 オブジ ェ ク トの形状や位置 のデータを持つ必要がある。 本実施例では、 オブジ ェ ク ト を矩形領域でモデル化する。 すわなち、 ある カ メ ラパ ラ メ 一 夕 におけるオブジ ェ ク ト は、 画面座標系における 矩形領域の位置と大き さ によ って表現される。 も ちろん 他の図形 (例えば、 多角形や自由曲線な ど) を用いてモ デル化して も よい。
図 1 9 A, 1 9 B, 図 2 0 A, 2 0 B , 図 2 1 A, 2 1 B に カ メ ラ パラ メ 一 夕 と 2 次元モデル と の対応関係 を示す。 各図 1 9 A, 2 0 A , 2 1 A に、 個 々 のカ メ ラ パラ メ ー タ に対する映像表示領域 2 0 0 の表示形態を示 す。 ま た、 各図 1 9 B , 2 0 B , 2 1 B に個 々 のカ ; 、。ラ メ ー タ に対応する オブ ジ ェ ク 卜 の 2 次元モデルを示
—4—
9 。 図 1 9 A において、 映像上のオブ ジ ェ ク ト 4 1 0 , 4 1 2 , 4 1 4 , 4 1 6 , 4 2 0 , 4 2 2 , 4 2 4 は、 図 1 9 B の 2 次元モデルではそれぞれ矩形領域 7 1 0 , 7 1 2 , 7 1 4 , 7 1 6 , 7 2 0 , 7 2 2 , 7 2 4 と し て表現さ れる。 一つのカ メ ラ パラ メ 一 夕 に対応 して、 ォ ブジ ェ ク ト をモデル化 した矩形の集ま り を領域フ レ ー ム と呼ぶ。 力 メ ラ ノ、。ラ メ ー タ 1 に対応する領域フ レ ーム 1 は矩形領域 7 1 0 , 7 1 2 , 7 1 4 , 7 1 6 , 7 2 0 , 7 2 2 , 7 2 4 カ、 ら構成さ れる。 図 2 0 八, 2 0 8 , 図 2 1 A , 2 I B に異なる カ メ ラパラ メ ータ に対する領域 フ レ ー ムの例を示す。 図 2 0 A, 2 0 B において、 カ メ ラパラ メ ー タ に対応する領域フ レ ーム 2 は、 矩形'領域 7 4 0 , 7 4 2 , 7 4 6 , 7 4 8 か ら構成される。 矩形領 域 7 4 0 , 7 4 2 , 7 4 6 , 7 4 8 はそれぞれオブジ ェ ク ト 4 1 2 , 4 1 6 , 4 2 4 , 4 2 2 に対応する。 同様 に、 図 2 1 A, 2 1 B において、 力 メ ラ ノ、0ラ メ 一 夕 3 に 対応する領域フ レ ー ム 3 は、 矩形領域 7 3 0 から構成さ れる。 矩形領域 7 3 0 はオブジ ェ ク ト 4 0 0 に対応する 同 じオブジ ェ ク ト で も、 カ メ ラ パラ メ 一 夕が異なれば、 別な矩形領域に対応する。 例えば、 オブジ ェ ク ト 4 1 6 は、 カ メ ラパラ メ 一 夕 1 の時には、 矩形領域 7 1 6 に対 応 し、 カ メ ラ パラ メ 一 夕 2 の時には 7 4 2 に対応する。
図 2 3 , 図 2 4 , 図 2 5 に 2 次元モデルのデー タ構造 を示す。 図 2 3 において、 1 3 0 0 は各カ メ に対応す る デ一 夕 を格納する 力 ズ デ一 ク テー ブル であ る。 '力 メ デー タ テーブル 1 3 0 0 には、 映像内の事物に対 して 操作か可能な カ メ ラ パラ メ ー タ のデ一 夕 と、 個々 の カ メ ラ ノ、。ラ メ ー タ に対応する領域フ レ ー ムのデー タ が格納さ れ 。
図 2 4 において、 1 3 2 0 はカ メ ラ パラ メ 一 夕 のデー 夕構造である。 カ メ ラパラ メ 一 夕 のデー タ は、 カ メ ラ の 水平方向の向 き であ る水平角、 カ メ ラ の垂直方向の向 き であ る垂直角、 ズー ムの度合を表す画角か らな る。 こ こ では、 カ メ ラ の姿勢や、 カ メ ラ の位置は固定であ る こ と を想定 している。 カ メ ラ の姿勢や、 カ メ ラ の位置を遠隔 操作でき る場合は、 それ らを制御する ためのデー タ も 力 メ ラ ノ、。 ラ メ 一 夕 1 3 2 0 に追加すればよい。 力 メ ラ ノ、。 ラ メ ー タ 1 3 2 0 は、 カ メ ラ をあ ら力、 じめ定義 したカ メ ラ パ ラ メ 一 夕 に設定する ために使われる。 すなわち、 マ ン マ シ ン サー ノく 2 0 は カ メ ラ パ ラ メ 一 夕 を カ メ ラ 制御用 コ ン ト ロ ー ラ に送 り 、 カ メ ラを遠隔操作する。 カ メ ラパラ メ ー タ 1 3 2 0 はオブジ ェ ク 卜 の同定処理に直接必要な 訳ではない。
図 2 5 は領域フ レ ー ム のデー タ構造を示す。 領域フ レ ー厶デ一 夕 は、 領域フ レ ー ムを構成する領域の個数 と、 各矩形領域に関する デー タ か らな る。 領域デー タ には、 画面座標系における矩形領域の位置 ( X , y ) 、 矩形領 域の大き さ ( w , h ) 、 オブ ジ ェ ク ト の活性状態、 動作 付加情報か らな る。 オブ ジ ェ ク ト の活性状態は、 ォブジ ェ ク トが活性か不活性かを示すデー タである。 ォフ ジ エ ク 卜が不活性状態にある と き には、 そのォブジ ェ ク ト は 同定されない。 活性状態にあるオブジ ェ ク ト だけが同定 される。 動作には、 イ ベ ン ト Z動作対応テーブル
1 3 4 0 へのポイ ン タが格納される。 ィベン ト 動作対 応テーブル 1 3 4 0 には、 ォブジ ヱ ク 卜が P D によ って 指定された時に、 実行すべき動作が、 ィベン ト と対にな つ て格納される 。 こ こ で、 イ ベ ン ト と は、 P Dの操作種 別を指定する ものである。 例えば、 感圧タ ツ チパ ネ ル 1 2 を強 く 押 した場合と、 軽 く 押した場合ではィベン ト が異なる。 イベン トが発生する と、 イベン ト位置にある ォブジ ヱ ク 卜が同定され、 そのオブジ ェ ク ト に定義して ある イベン ト 動作対の内、 発生したィベン 卜 と適合す るィベ ン ト と対になっている動作が実行される。 領域フ レームの付加情報には、 矩形領域と してだけでは表しき れない、 ォブジ ヱ ク 卜 の付加的な情報 1 3 5 0 へのポィ ン 夕が格納される。 付加情報には様々 な ものがある。 例 えば、 オブジ ェ ク ト に描かれたテキス ト、 色、 ォブジ ェ ク 卜の名前、 関連情報 (例えば、 装置のマ二ュ アル、 メ ンテナ ン ス情報、 設計データな ど) がある。 これによ つ て、 オブジ ェ ク ト に描かれたテキス ト に基づいて、 ォブ ジ ェ ク トを検索した り、 指定されたオブジ ェ ク ト の関連 情報を表示 した り でき る。
図 2 2 に、 2 次元モデルを使ってオブジェ ク トを同定 する手順を示す。 まず、 現在のカ メ ラパラ 一 夕 に対応 す る領域フ レ ー ム を 力 メ ラ デ一 夕 チ ー ブル 1 3 0 0 カヽ ら 検索する ( ス テ ッ プ 1 2 0 0 ) 。 次に領域フ レ ー ムを構 成する領域の な かか ら 、 ィ ベ ン 卜 位置を含む領域を検索 する。 すなわち、 領域フ レ ー ムデー タ に格納さ れてい る 各領域の位置 と大き さ のデー タ と、 イ ベ ン ト 位置 と を比 較 し (ステ ッ プ 1 2 2 0 ) 、 イ ベ ン ト位置にあ る領域が 見つかっ た らその番号を上位の処理系に返す。 上位の処 理系は、 見つかっ た領域が活性状態か否かを調べ、 活性 状態だ っ た ら、 イ ベ ン ト に対応 して定義されている動作 を実行する。 ステ ッ プ 1 2 2 0 は、 イ ベ ン ト位置を含む 領域が見つかるか、 領域フ レ ーム内の全領域を調べ終る まで繰 り返される (ステ ッ プ 1 2 1 0 ) 。 .
2 次元モデルは 2 次元モデル定義ツールを使っ て定義 する。 2 次元モデル定義ツールは下記機能か らな る。 ( 1 ) カ メ ラ選択機能
該機能はプラ ン ト 内に配置 してあ る任意のカ メ ラ を選 択 し、 そのカ メ ラ か らの映像を画面に表示する機能をい う 。 カ メ ラ の選択方法 と して、 下記があ る。
• 画面上に表示されたブラ ン 卜 の配置図上でオブジ ェ ク ト を指定する こ と に よ り 、 そのオブジ ェ ク ト を呋すカ メ ラ を指定する。
• 画面上に表示さ れたブラ ン 卜 の配置図上で力 メ ラ の配 置されている場所を指定す る。
• 力 ラ の番号や名前な どの識別子を指定する。
( 2 ) カ メ ラ ワ ー ク設定機能 該機能は前記カ 選択機能によ て、 選択された 力 ラ を遠隔操作 して、 カ ズ の向きや画角を設定する機 能をい う 。
C 3 ) 図形作画機能
該機能は画面上に表示された映像上て、 図形を作画す る機能をい う。 作画は、 矩形、 円、 折れ線、 自由曲線な どの基本図形要素を組み合わせて描 く 。 本機能によ って オブジ ェ ク ト の映像を下敷に して、 オブジェ ク ト の概形 を描 く 。
( 4 ) イベン ト 動作対定義機能
該機能は図形作画機能で描いた少な く と も一つの図形 を指定して、 それに対 してィベン ト Z動作の対を定.義す る機能をいう。 イベン ト は、 メ ニュ ーを選択するか、 ィ ベン ト名をテキス ト と して入力するか して定義する。 動 作はあ らか じめ定義された動作をメ ニュ ーから選択する か、 記述言語を用いて記述する。 こ う した記述言語と し ては例えば、 情報処理学会論文誌、 第 3 0巻、 第 9号、
1 2 0 0ペー ジから 1 2 1 0 ペー ジに記載の 「 メ タュ 一 ザィ ン 夕 フ ヱースを有するユーザィ ン タ フ ヱ 一ス構築支 援シ ス テム 」 に書かれている記述言語 U I D Lを用いる , 本 ■=口-き口五口 U I D L ( U s e I n t e r f a c e
D e f i n i t i o n L a n g u a g e ) の一例 ¾■下 記に示す。
U I D Lでは、 下記形式でィベン 卜 Z動作対を定義す e v e n t ィ ベ ン ト 名 ( 千' パ イ ス .) ί動作 i
「 ィ ベ ン ト 名 」 は、 図形の規定す る画面上 O領域に対 して加え られた操作の種類を指定する。 感 Eク ッ チ パ ネ ル 1 2 を用 い る場合の ィ ベ ン 卜 名 と それに対応する操作 の内容を下記に示す。 ポ イ ン チ イ ン グデバイ ス と して、 マ ウ スな ど他の も のを用 いる場合には、 別な ィ ベ ン ト 名 を指定する こ と にな る。
s 0 f t - t o u c h : 夕 ツ チパネ ル 1 2 に指で軽 く 夕 ツ チ した と き に発生する ィ ベ ン ト 。
h a r d - t o u c h : 夕 ッ チ ノ、。 ネ ノレ 1 2 に指で強 く 夕 ツ チ した と き に発生する ィ ベ ン ト。
s 0 f t 一 0 f f : 夕 ツ チノヽ。ネ ル 1 2 に指で軽 く タ ツ チ した後、 指が離れる と き に発生する イ ベ ン ト 。
h a r d - 0 f f : 夕 ツ チパネ ル 1 2 に指で強 く タ ツ チ した後、 指が離れる と き に発生する イ ベ ン ト。
s 0 f t — d r a g : タ ツ チ ノ、。 ネ ル 1 2 に指で軽 く 夕 ツ チ しなが ら指を動かす と発生する ィ ベ ン ト。
h a r d - d r a g : タ ツ チ ノく ネ ル 1 2 に指で強 く 夕 ツ チ しなが ら指を動かす と発生する ィ ベ ン 卜。
「デバイ ス」 は、 同 じ ィ ベ ン ト を発生する装置が複数 あ る場合に、 どの装置か らその ィ ベ ン 卜 が発生 したかを 指定する。 例えは、 マ ウ スに左右 2 つのボ タ ン かあ る場 台に、 どち らのボ タ ン か ら発生 した ィ ベ ン 卜 であ るかを 指定する。 本実施例では上記 ィ ベ ン ト を発生する装置は 感圧 々 ッ + パ ネ ル 1 ;2 しかないのて、 指定 し な い。 「動作」 は、 「 イ ベ ン ト 名」 に対応する操作が、 図形 の規定する領域に加え られた と き に実行する処理を定義 する。 「動作」 はあ らか じめ用意された基本動作を、 通 常のプロ グラ ミ ン グ言語 (例えば、 C言語な ど) と同様 の構文 (分岐、 ジ ャ ン プ、 操り返 し、 手続き定義、 手続 き呼びだ しな ど) を用いて組みあわせて定義する。 基本 動作の例を下記に示す。
a c t i v a t e 0
オブジ ェ ク ト を活性化する。
d e a c t i v a t e 0
オブジェ ク ト を不活性化する。
a p e a r 0
オブジェ ク 卜の領域を規定している図形を表示する d i s a p p e a r 0
オブジ ェ ク トの領域を規定している図形の表示をやめ
-3 o
s w i t c h し a m e r a ( c a m e r a ,
r e g i o n )
引数 e a rn e r aで指定されるカ メ ラ の映像を、 引数 r e g i o nで指定される表示画面 1 0 0上の領域に表 示する。
s e t C a m e r a P a r a m e t e r
( c a m e r a , p a r a m e t e r )
カ メ ラ パ ラ メ 一 夕をカ メ ラ に設定する。 引数 c a m e r a は設定先の力 ラを指定する。 引数 P a r a m e t e r は設定すへ き 力 パ ラ ズ ー タ の値を指定す o g e t C a m e r a P a r a m e t e r
( c a m e r a , p a r a m e t e r )
現在の カ メ パ ラ メ ー タ の値を帰す。 引数 c a m e r a で指定さ れ る カ ラ の カ メ ラ パ ラ メ 一 夕 力べ引数 P a r a m e t e r に設定さ れ る。
c a 1 1 外部手続き名 (引数並び)
他のプロ グラ ミ ン グ言語 (例えば C言語) で作成 した 手続き を呼び出す。 呼び出す手続き と その引数はそれぞ れ 「外部手続き名 」 と 「引数並び」 で指定する
s e n d オブ ジ ェ ク ト 名 動作名 (引数並び)
他のオブジ ェ ク ト の基本動作、 ま たは手続き を呼び出 す。 呼び出す基本動作、 ま たは手繞き およ びそれ らの引 数はそれぞれ 「動作名」 、 「引数並び」 で指定する。
前記 2 次元モ デ ル定義ツー ル では下記手順に よ り 2 次 元モデルを作成する。
手順 1 : カ メ ラ およ びカ メ ラ ワ ー ク の指定
前記 ( 1 ) カ メ ラ選択機能を用いて、 カ メ ラ を選択 し 画面上にその映像を表示する。 次に前記 ( 2 ) カ メ ラ ヮ ー ク設定機能を用いて、 カ メ ラ ワ ー ク を設定 し、 所望の 場所の映像を得る。
手順 2 : オブ ジ ェ ク ト の概形を定義
手順 1 で表示 した映像内の事物の中でォブ ジ ニ ク 卜 と して定義 したいオブ ジ ェ ク ト の概形を前記 ( 2 ) 図形作 画機能を用 いて作画する。 手順 3 : ィ ベ ン 1、 と動作の対を定義
前記 (' 4 .) ィ ベ ン 卜 Z動作対定義機能を用 いて、 手順 2 で作画 した少な く と も一つの図形を選択 して、 ィ ベ ン ト と動作の対を定義する。
手順 4 : 定義内容の保存 必要に応 じて定義内容を保存する。 定義内容は図 2 3 図 2 4 、 図 2 5 に示 したデー タ構造で保存さ れる。 他の カ メ ラ や、 他のカ メ ラ ワ ー ク に対 して 2 次元モデルを作
5
4
成 したい と き は、 手順 1 か ら手順 4 ま でを繰 り 返す。
2 次元モデル定義ツー ルはマ ンマ シ ンサ ' 2 0 上に 実装 し、 デ ィ スプ レ イ 1 0 上に表示する よ う に して も よ い し、 全 く 別の ワ ー ク ス テー シ ョ ン、 ノ、。ー ソ ナノレ コ ン ビ 夕上に実装 して、 定義 した 2 次元モデルをマ ンマ シ ンサー バ 2 0 に転送する よ う に して も よい。 上述 した 2 次元モデル定義ツー ルの一例を図 2 6 に示 す。 図 2 6 において、 1 5 0 0 は 2 次元モデル定義ツ ー ル、 1 5 0 1 は領域フ レ ー ム の名前を入力する ためのテ キス ト 入力 フ ィ ール ド、 1 5 0 2 は基本図形 (直線、 矩 形、 楕円、 円弧、 折れ線、 多角形) を組み合わせて領域 フ レ ー ムを作画、 編集 し、 それに動作を定義する ための メ ニ ュ ー、 1 5 0 3 は作成 した領域フ レ ー厶を保存 した り 、 変更する ための管理 メ ニ ュ ー、 1 5 0 4 は カ 選 択する ための ニ ュ ー 、 1 5 0 5 1 5 0 9 は メ ニ ュ ー 1 5 0 4 で選択 した力 ズ ラ を遠隔操作 してパ ン、 ズーム させる ための ズ ニ ュ ー、 1 5 1 0 は メ ニ ュ ー 1 5 0 4 で 選択 した力 メ の映像を表示する領域であ る と と も に、 領域フ レ ー 厶を映像に重ねて作画する 領域、 1 5 1 1 は すフ ジ エ ク ト 4 1 4 をモチ ' ル 化す る ために領域 1 5 1 0 に作画さ れた矩形て、 1 5 1 2 はマ ウ ス、 夕 ツ チパ ネ ル な どのポ ィ ン テ ィ グ千'バ イ ス か ら の位置座標入力に連 動 して動 く ポイ ン タ であ る。 以下では、 ポイ ン テ ィ ン グ デバイ ス と して、 左右 2 つのボタ ン のついたマ ウ スを使 う こ と にする。 マ ウ スのボ タ ン を押 しなか ら、 マ ウ スを 動かす こ と を ド ッ グ、 マ ウ スのボ タ ン を動か さずにボ タ ン を押 し下げ、 解放する こ と を ク リ ッ ク 、 ク リ ッ ク を 続けて 2 回行う こ と を ダブル ク リ ッ ク と呼ぶ こ と にする , メ ニ ュ ― 1 5 0 2 の各項目 の機能は下記であ る。
直線 : 直線を作画する機能。 本項目 を選択 した後、 領 域 1 5 1 0 内でマ ウ スを ドラ ッ グする と、 ドラ ッ グ開始 時のボイ ン 夕 1 5 1 2 の位置 と、 ド ラ ッ グ終了時のボイ ン 夕 1 5 1 2 の位置 と を結ぶ直線が作画さ れ る。
矩形 : 矩形を作画する機能。 本項目 を選択 した後、 領 域 1 5 1 0 内でマ ウ スを ドラ ッ グする と、 ドラ ッ グ開始 時のボイ ン 夕 1 5 1 2 の位置 と、 ドラ ッ グ終了時のボイ ン 夕 1 5 1 2 の位置 とを対角の頂点 とする矩形が作画さ 楕円 : 楕円を作画する機能。 本項目 を選択 した後、 領 域 1 5 1 0 内でマ ウ スを ド ラ ッ グする と、 ドラ ッ グ開始 時のボイ ン 夕 1 5 1 2 の位置 と、 ドラ ッ グ終了時のボイ ノン 1 2 の位置 と を対角線 とす る矩形に内接す る楕 円と ( 円を 含む .) が ί乍画さ れ る。
折れク 線 : 折れ線を作画する機能。 本項 目 を選択 した後 m域 1 5 1 0 内でポ イ ク 1 5 1 2 の移動 とマ ウ ス の ク ッ ク を繰 り 返 し、 最後に同 じ 位置で 2 度 ク リ ッ ク する ク さ れた時のポ イ ン タ 1 5 1 2 の位置を順次 直線で結んででき る折れ線が作画さ れ る。
多角形 : 多角形を作画する機能。 本項目 を選択 した後 編集領域 1 5 1 0 内でポイ ン タ 1 5 1 2 の移動 と ク リ ツ ク を繰 り返 し、 最後に同 じ位置で 2 度 ク リ ッ クする と、 ク リ ッ ク さ れた時のポイ ン タ 1 5 1 2 の位置を順次直線 で結び、 最後の点 と最初の点を直線で結んででき る多角 形が作画さ れ る。
削除 : ポイ ン タ 1 5 1 2 で指定 した図形を削除する と 同時に、 前記図形をバ ッ フ ァ (ペース ト バ ッ フ ァ と呼 ぶ) に格納する。
複写 : ポイ ン タ 1 5 i 2 で指定 した図形をペース 卜 バ ッ フ ァ に複写する。
貼付 : ペー ス 卜 バ ッ フ ァ の内容を最 も最近マ ウ スが ク リ ッ ク さ れた時のポイ ン タ 1 5 1 2 の位置に作画する。
グルー プ : ポイ ン タ 1 5 1 2 で指定さ れた複数の図形 を グル ープ化する。 グルー プ化さ れた複数の図形は以後 一つの図形 と して扱われる。 一つのオブ ジ ェ ク 卜 を複数 の図形を用いてモデル化する には、 それ らの図形を グル ープ化する。 グ'ル ープ化さ れた図形が一つだけ指定さ れ ている場合に本項目 か選択さ れ る と、 措定さ れた ゲル 一 プを解散さ せ、 と の複数の図形に どす
動作 : ポ イ ン ク 1 5 1 2 で指定 し た図形に ィ ベ ン 卜 , 作対を定義する ための動作定義 ン ー 卜 を呼ひ出す。 メ ニ ュ ー 1 ; 0 3 の各項 目 の機能は下記てあ る。
新規 : 新 し く 領域 フ レ ー ムを定義する。
開 く : 入力 フ ィ ー ル ド 1 5 0 1 で指定 した名前の領域 フ レ ー ムを呼び出 して、 領域 1 5 1 0 に表示する。 同時 に 、 呼び出 した領域 フ レ ー ム に対応する カ メ ラ に対応す る カ メ ラ パ ラ メ ー タ を設定 し、 そ の カ ズ ラ の映像を領域 1 5 1 0 に表示する。
保存 : 定義 した領域フ レ ー ムを、 入力 フ ィ ー ル ド 1 5 0 1 で指定 した名前で、 カ メ ラ /力 メ ラ ノ、。 ラ メ 一 夕 と対 に して保存する。
終了 : モ デ ル定義ツ ー ルを終了する 。
メ ニ ュ ー 1 5 0 5 〜 1 5 0 9 の機能は下記であ る。
ニ ュ ー 1 5 0 5 : 力 メ ラ を上下左右にパ ン する 。 メ ニ ュ ー 1 5 0 6 : カ メ ラ を 、 ズ ー ム イ ン す る 。
メ ニ ュ ー 1 5 0 7 カ メ ラ を、 ズ ー ム ア ウ ト す る 。 ズ ニ ュ — 1 5 0 8 一つ前 の 力 ズ ラ パ ラ メ ー タ に 力 メ ラ を設定す る 。
メ ニ ュ ー 1 !3 () 9 最後に保存 ( ニ ュ ー 1 5 () 3 の 頁 S 「保存」 を選択) し た と き の カ メ ラ パ ラ メ ー ク の値 二 カ メ ラ を設定する。
ニ ュ ー 1 5 0 4 を選択す る と、 領域 1 5 1 ϋ に選択 メ 映像つ、表示さ れ る c ニ ュ ー 1 5 (1 5 5 0 9 を使 て 力 メ を遠隔操作 し、 所望の カ パ ^ 一 々 に設定す る 。 モ デ ル 定義 ツ ー ル 1 5 0 0 では 力 を ニ ュ ー 1 5 () 4 で選択 し ている か、 プ 卜 系統 図にア イ コ ン を表示 して カ メ ラ の配置を明示 し 、 ア イ コ ン を選択する 方式で力 を選択でき る よ う に し て も よ い。
モデル定義ツ ー ル 1 5 0 0 では、 基本図形 (直線、 矩 形、 楕円、 円弧、 折れ線、 多 5 角形) を組み合わせてォブ
8
ジ ェ ク 卜 をモデル 化する。 すなわち ある カ メ ラ ハ' ラ ー タ に よ っ て画面座標系に投影さ れ るォブジ ェ ク 卜 は、 一 つま たは複数の基本図形の位置 と大き さ によ っ て表現さ れる。 ォブジ X ク 卜 のモデルは、 領域 1 5 1 0 に表示さ れた映像を下敷にそ こ に映っ ている オブジ ェ ク ト の概形 を作画する要領で定義する。 通常の図形作画ツ ールを使 つ て作画する の と同様の方法でオブジ ェ ク ト の概形を作 画する。 メ ニ ュ ー 1 5 0 2 に よ っ て、 所望の基本図形を 選択 し、 選択 した基本図形の大き さ、 位置を領域 1 5 1 0 上でポイ ン タ 1 5 1 2 を使っ て指定する と領域 1 5 1 0 上に基本図形が作画される。 図 2 6 ではォブジ ク 卜 4 1 4 は矩形 1 5 1 1 に よ っ てモデル化さ れている。 あ る オブ ジ ェ ク ト をモデル化 した一つま たは複数の図形を モデ儿 ォブジ ェ ク ト と呼ぶ こ と にする。 オ ブ ジ ェ ク 卜 の概形を作画 した ら、 次に作画 した図 すなわちモデル ォブジ X ク 卜 に動作を定義する。 動作は 動作定義シ 一 卜 を使 て定義する。 ニ ュ 一 1 5 0 2 の 項 目 「定義」 を選択する と図 2 7 に示すよ う に動作定義 シ ー ト 1 5 0 0 力、開 く 。 図 2 7 に お いて 、 1 6 0 2 は ン 一 卜 1 6 0 ϋ を管理す る た め の メ ニ ュ ー 、 1 6 0 3 は ォ ブ ジ ェ ク ト 名 を人力 す る フ ィ 一 ド、 1 6 0 4 は ィ ベ ン 卜 の種類を選択する た めの メ ニ ュ ー 、 1 6 0 5 はォ っ ジ ェ ク ト にあ らか じめ定義さ れた基本的な動作を選択する メ ニ ュ ー 、 1 6 0 6 はイ ベ ン ト Ζ動作対を前記記述言語 U I D L を用 いて記述する領域であ る。
ィ ベ ン ト 動作対の記述 5に 9際 して、 ィ ベ ン 卜 の種類、 オブジ ェ ク 卜 の基本動作をそれぞれ メ ニ ュ ー 1 6 0 4 、 1 6 0 5 カヽ ら選択でき る。 メ ニ ュ ー 1 6 0 4 、 1 6 0 5 を選択する と、 選択 さ れた イ ベ ン ト 名 ま たは基本動作名 が領域 1 6 0 6 の入力位置に入力 さ れる。 こ れに よ つ て ィ ベ ン ト 名ゃ基本動作名をキーボー ドか ら入力する手間 が省け、 動作記述の労力が柽減される。
メ ニ ュ ー 1 6 0 2 の各項目 の機能は下記であ る。
保存 : 定義 した動作定義対を領域フ レ ームデー タ の ィ ベ ン ト 動作/対応テーブル と して記憶する。
終了 : 動作定義シー ト を終了 し、 モ デル定義ツ ー ル 1 5 0 0 に制御を戻す。
図 2 7 では、 オブ ジ ェ ク ト 4 1 4 をモデル化 した図形 1 5 1 1 に動作を定義 している様子を示 している。 入力 フ ィ 一 ノし ド 1 6 0 3 に は図形 1 5 1 1 の オ ブ ジ ェ ク ト 名 と して 「 P o w e r O n B u t t o n 」 カ 入力 さ れ ている。 そ して、 領域 1 6 0 6 には、 「ォ ' ジ ェ ト か 強 く 触られた ら、 R e m o t e P o w e r O n 0 とい う 手続きを呼び出す」 という イベ ン ト Z動作の対が 記述されている。
モデル定義が終了 した ら、 メ ニュー 1 5 0 3 の項目 「保存」 を選択 し、 定義内容を図 2 3 — 2 5 に示 したデ 一夕構造で保存する。 モデル定義ツール 1 5 0 0 をマ ン マシ ンサ 一 ノく 2 0 上で動か している場合には、 メ イ ン メ モ リ 3 1 0 およびディ ス ク 3 2 0 に記億される。
ォブジ ェ ク 卜のモデルを持つこ とによ って、 あるォブ ジ ェ ク 卜が映像内の どこ に どのよ う に表示されているか がわかる。 これによ つて、 オブジ ェ ク ト に関連する情報 を映像内のォブジ ヱ ク トの位置や形状に基づいてグラ フ イ ツ ク スを表示した り、 オブジェ ク トの映像を検索した りでき る。 下記に、 例を挙げる。
' ォブジ ェ ク トの名前、 機能、 操作マニュアル、 メ ンテ ナ ンス方法な どをォブジェ ク トの上、 または付近に合成 表示する。 例えば、 ある コマ ン ドを発行する と映像に映 つている各機器の名前を表示するな ど。
図 2 8 に、 ォブジ ヱ ク 卜 に関する説明をオブジ ェ ク ト のそばに表示する例を示す。 同図 おいて、 2 2 0 1 、 2 2 0 2 はそれぞれオブジェ ク ト 5 1 8 、 5 2 4 の機器 の名前と使用上の注意を表すグラ フ ィ ッ ク スである。
• グラ フ ィ ッ ク スで作成したオブジ ェ ク トを実際にカ メ ラで映されているかのよ う に実写の映像に合成表示する c · オブジ ェ ク トの付加情報を入力されたキー ワ ー ドに基 づいて検索 し、 該当する オブ ジ ェ ク ト を映すよ う に カ メ ラ ゃ カ メ ラ パ メ 一 夕 を設定する。
• 力 メ ラ では映す こ と のでき ないォブ ジ ヱ ク 卜 内部の構 造を、 映像内のオブ ジ ェ ク 卜 に合成表示する。 例えば、 配管内の水流の様子を他のセ ンサか ら得 られたデー タ に 基づいて シ ミ ュ レ ー ン ョ ン し、 その結果を実写の映像に 映っ ている配管の上に合成表示する。 同様に、 ボイ ラ の 中の火炎の様子 (例えば、 セ ンサか ら得 られた情報に基 づいて作成さ れた温度分布図) を表すグラ フ ィ ッ ク スを 映像内のボイ ラ に合成表示する。
• 現在注目すべき オブジ ェ ク ト を、 グラ フ ィ ッ ク スに よ り 明示する。 例えば、 セ ンサによ っ て異常が検知された と き、 映像内のオブジ ェ ク ト に グラ フ ィ ッ ク スを合成表 示する。 ま た、 ト レ ン ドグラ フ に表示さ れている デー タ に関連する映像内のオブジ ェ ク 卜 に グラ フ ィ ッ ク スを合 成 して、 デー タ と映像内のオブジ ェ ク 卜 の関連がす ぐわ 力、る よ う に " 3 る。
以上の実施例では、 通常のカ メ ラで撮影さ れる映像を 用いているが、 特殊なカ メ ラ (赤外線カ メ ラ、 魚眼 レ ン ズ装着カ メ ラ、 サーモ グラ フ ィ な ど) で撮影 した映像や 画像処理後の映像に対 して も本発明が適用でき る こ と は も ち ろんであ る。
本実施例の効果は、 下記 ( 1 ) か ら ( 6 ) の少な く と も一つを達成でき る こ とであ る。
C 1 ) 遠隔運転監視 システムな どにおいて、 運転員か 操作の対象や操作結果を直感的に把握でき る よ う にな り 誤操作が減る。
( 2 ) カ メ ラ の選択や、 カ メ ラ の遠隔操作に煩わされ る こ とな く 、 監視したい と こ ろの映像を簡単に見る こ と ができ る。
( 3 ) 監視用映像上で操作を行なう こ とができ る。 こ のため、 監視モニタ と操作盤とを分ける必要がな く な り 遠隔運転監視シ ス テ ム の小型化、 省スペー ス化を図る こ とができ る。
( 4 ) カ メ ラ映像に グラ フ ィ ッ ク スを合成表示する こ と によ り、 それぞれの長所を生か し、 短所を補う こ とがで き る。 すなわち、 現場の臨場感を伝えながら、 重要な部 分を強調する こ とができ る。
( 5 ) 異種の情報を素早 く 相互参照でき る表示。 例え ば、 カ メ ラ映像で現在監視 している部分を指定するだけ で、 その部分に関連するセ ンサの値を示す ト レ ン ドグラ フを表示させる こ とができ る。 これによ り、 現場の状況 を総合的に判断でき る よ う になる。
( 6 ) 映像に対 して直接操作を加える よ う なマ ンマ シ ン を簡単に設計、 開発でき る よ う になる。
尚、 本実施例においては、 複数のカ メ ラ映像を用いた が、 複数のディ ス ク (例えば光ディ ス ク) 再生装置から の映像を用いる よ う に して も良い。
次に本発明の別の実施例 (第 2 実施例) であるプラ ン ト制御監視シ ス テムを図 2 9 か ら図 6 0 までを用いて説 明する。
以下の実施例ては、 映像又は音と制御のために使用す る デー タ (制御デー タ) を時間的に同期させて再生する こ と、 映像又は音声と制御デー タを相互に参照させる こ と、 映像又は音声 と制御デー タ とを合成する こ とを、 映 像又は音と制御デー タ とを関連づける という 。
図 2 9 は本実施例のプラ ン ト制御監視システムの構成 を表わす。 工場の現場における監視対象物である装置 (以下単に制御対象装置と呼ぶ) 2 1 0 1 は、 各時刻で の運転状況を示すプロ セスデー タをケーブル 2 1 3 5 を 通 して、 第 1 の入力手段である制御用計算機 2 1 0 2 に 送る。 制御用計算機 2 1 0 2 ではプロ セ スデー タ を分析 し、 制御対象装置 2 1 0 1 に制御信号をケーブル · 2 1 3 6 を通 して送る。 また、 ケーブル 2 1 3 7 を通 して L A Ν 2 1 2 0 にプロセスデータを流し、 ケーブル 2 1 3 8 を通 して L A N 2 1 2 0 から流れて く る操作員命令を受 け取り、 処理する。 以上のよ う に、 制御用計算機 2 1 0 2 の主な機能はプロセスデータの収集、 プロセスデータ の L A Nへの出力、 操作員命令の L A Nか らの入力、 制 御対象装置 2 1 0 1 へのプロセス制御信号の出力である L A N 2 1 2 0 は、 E t h e r n e t 等のケーブルで 操作員命合、 プロセスデー タ等の信号を流す。 L A N 2 1 2 0 は、 制御用計算機 2 1 0 2 からの出力用ケープ ル 2 1 3 7 、 制御用計算機 2 1 0 2 への入力用ケーブル 2 1 3 8 、 デー タベース 2 1 0 4 からの出力用ケーブル 2 1 4 3 、 デー タベー ス 2 1 0 4 への入力用ケープル 2 1 4 4 、 ワ ー ク ステ一 シ ョ ン 2 1 0 3 からの出力用ケ 一 ブル ; 2 1 4 0 、 ワ ー ク ステ一 シ ヨ ン 2 1 0 3 への入力 用ケーブル 2 1 3 9 で、 各機器と接続している。
第 1 、 第 3 の記憶ュニ ッ 卜 および第 1 の再生ュニ ッ ト であるデー タベー ス 2 1 0 4 は L A N 2 1 2 0 に流れて いるプロセスデータ等をケ一ブル 2 1 4 4 を通して受け 取り、 内部に持っている時計が出力する時刻 t と と もに 記録する。 また、 ケープル 2 1 4 4 を通してデー夕読み だ しの命令が入力された際には、 読みだし指定を受けた デ一夕をケーブル 2 1 4 3 を通 して L A N 2 1 2 0 に送 複数台の I T Vカ メ ラ 2 1 1 0 は、 制御信号を'入力す る こ とでパ ン、 チル ト、 ズーム等の遠隔操作ができ る 力 メ ラ制御装置、 及びカ メ ラ と共に動 く 音声マイ クが取付 けられている。 カ メ ラ 2 1 1 0 は制御対象装置 2 1 0 1 の映像、 音声をケーブル 2 1 3 0 、 2 1 3 1 を通して、 スィ ッ チ ャ 2 1 0 9 に送る。 スィ ッ チャ 2 1 0 9 は、 ヮ ー ク ステー シ ョ ン 2 1 0 3 から入力するカ メ ラ制御信号 をケーブル 2 1 3 2 を通してカ メ ラ 2 1 1 0 に送る。 I T Vカ メ ラ 2 1 1 0 は、 第 2 の入力ュニ ッ トである。
第 2 の記憶ュニ ッ ト ぉよび第 2 の再生ュニ ッ トである 映像音声記録部 2 1 0 8 は、 光ディ ス ク等のラ ンダムァ クセスが可能な ものを用いる。 ビデオテープの様な もの でも よいがこの場合はデー タの探索が逐次的であるため デー タ の探索及び表示の時間がかかる。 I T V カ メ ラ 2 1 1 0 か らの全ての映像、 音声はス ィ ッ チ ャ 2 1 0 9 をス ル ー ア ウ ト してケ ーブル 2 1 3 3 カヽ ら入力 さ れ る。 ま た制御部であ る ワ ー ク ステー シ ョ ン 2 1 0 3 がス イ ツ チ ヤ 2 1 0 9 を通 してケーブル 2 1 4 5 で読みだ し命合 を入力 した場合は、 指定さ れた映像、 音声情報をケープ ル 2 1 3 4 を通 してスィ ッ チ ャ 2 1 0 9 に出力する。
スィ ッ チ ャ 2 1 0 9 は、 入力する複数の映像、 音声を ワ ー ク ステー シ ョ ン 2 1 0 3 にケーブル 2 1 4 1 を通 し て送る際の映像音声切 り 替えスィ ッ チであ る と共に、 ヮ — ク ステー シ ョ ン 2 1 0 3 カヽ らケーブル 2 1 4 2 を通 し て出力する カ メ ラ制御信号、 記録映像呼び出 し信号を、 カ メ ラ 2 1 1 0 、 映像音声記録部 2 1 0 8 に送る際の信 号送信先切 り 替えスィ ツ チであ る。
ワ ー ク ステー シ ョ ン 2 1 0 3 は、 操作員への出力ュニ ッ 卜 と して第 1 、 第 3 の出力ュニ ッ ト であ る表示用 デ ィ スプ レ イ 2 1 1 1 、 ス ピー カ 一 2 1 1 2 、 操作員か らの 入力ュニ ッ ト (測定デー タ 出力指定ュニ ッ ト 、 選択対象 を選択するュニ ッ ト、 測定デー タ の探索値を指定する ュ ニ ッ ト ) と してキー ボー ド 2 1 0 6 、 マ ウ ス 2 1 0 5 お よ び夕 ツ チパネ ル 2 1 0 7 等の入力デバイ ス と接続 して いる。 ま た、 ケーブル 2 1 3 9 、 2 1 4 0 で L A N 2 1 2 0 と、 ケーブル 2 1 4 1 、 2 1 4 2 でスィ ッ チ ャ 2 1 0 9 と接続する。 ワ ー ク ステー シ ョ ン 2 1 0 3 は、 ー ブル 2 1 3 9 か ら入力する プロ セスデー タ を処理 し 表示画面を作成 して、 ケ一ブル 2 1 4 1 か ら入力する映 像デ一 夕 と共にデ ィ スプ レ イ 2 1 1 1 に表示する。 一方 ケー ブル 2 1 4 1 で入力する音声デー タ はス ピー カ ー 2 1 1 2 で出力する。 ス ピーカ 一 2 1 1 2 と表示用デ ィ スプ レ イ 2 1 1 1 と は、 第 2 の出力ユニ ッ ト であ る。 ま た、 操作員か らのキーボー ド 2 1 0 6 によ るキー入力や マウ ス 2 1 0 5 お よ び夕 ツ チパネル 2 1 0 7 等入力デバ イ スか らの入力はワ ー ク ステー シ ョ ン 2 1 0 3 内で処理 さ れ、 制御対象装置 2 1 0 1 の制御コ ー ド と してケープ ル 2 1 4 0 で出力 した り、 映像、 音声の切 り 替えスイ ツ チ ヤ 2 1 0 9 への切 り 替え命令や、 カ メ ラ 2 1 1 0 の制 御コ ー ド、 映像、 音声記録部 2 1 0 8 への呼び出 し コ ー ド と して、 ケーブル 2 1 4 2 で出力する。
操作員はディ スプ レ イ 2 1 1 1 上に表示された映像、 文字、 グラ フ ィ ッ ク スで示される システムの状況を監視 し、 必要な操作、 およ び命令をマウス 2 1 0 5 、 キ一 ボ ー ド 2 1 0 6 、 夕 ツ チバネル 2 1 0 7 を用いて行な う 。 以下説明上、 操作員か らの入力デバイ ス と しては、 タ ツ チパネル 2 1 0 7 を用いる。 も ち ろん他のデバイ スで も 構わない。
つぎに図 3 0 において ワ ー ク ステー シ ョ ン 2 1 0 3 の 内部構造を示す。 2 2 0 1 は C P U 、 2 2 0 2 は主記憶 2 2 0 3 は 1 〇、 2 2 0 4 はディ スプ レ イ 2 1 1 1 に プロセスデー タ を表示するための グラ フ ィ ッ ク ス画面フ レ ームノく ッ フ ァ 、 2 2 0 5 は入力 した ビデオ信号をデジ 夕 ル信号に換え る デ ィ ジ タ イ ザ、 2 2 0 6 は ビデオ用 フ レ 一 厶バ ッ フ ァ 、 2 2 0 7 は グラ フ ィ ッ ク ス画面 と映像 と をプ レ ン ドする ブ レ ン ド回路てあ る。
図 3 1 において映像、 音声記録部 2 1 0 8 の構成を示 す。 ワ ー ク ス テ ー シ ョ ン 2 1 0 3 か らの各種命令を受け 取 り 処理する と共に記録、 再生の命令を出す C P U 2 3 0 1 、 映像のバ ッ フ ァ リ ン グ等に用いる主記憶 2 3 0 2 . I T Vカ メ ラ 2 1 1 0 か らの信号をデジ タ ル化する と共 に、 デジ タ ル信号を ワ ー ク ス テー シ ョ ン 2 1 0 3 へ送る アナ ロ グ信号に変える A Dノ D A ( ア ナ ロ グ . デジ タ ル /デジ タ ル · ア ナロ グ) 変換器 2 3 0 3 、 映像音声記録 読みだ し部 2 3 0 4 とか らな る。 ·
図 3 2 はプロ セス制御監視シ ス テムにおける ディ スプ レ イ画面を表 している。 ディ スプ レ イ画面は、 プロ セス 全体構成図 2 4 0 1 と、 お も に I T V カ メ ラか らの映像 を表示する動画像表示領域 2 4 0 2 と、 制御対象装置 2 1 0 1 か らのプロ セスデー タ を表示する ト レ ン ドグラ フ 2 4 0 3 と、 時計 2 4 0 6 、 スィ ッ チ、 ヘルプ情報等を 表示する ワ ー ク 領域 2 4 0 4 と、 プ ロ セ スデー タ表示用 メ ー タ 一 2 4 0 5 と、 メ ニュ ー領域 2 4 0 7 と力、 らな る メ ニ ュ ー領域 2 4 0 7 内には、 カ メ ラ切 り 替えボタ ン 2 4 0 8 、 映像内、 プロ セスデー タ 内におけ る選択対象指 定ボタ ン 2 4 0 9 、 監視モー ド と再生モー ドの切 り 替え 標準再生、 ス ロ ー再生の切 り 替えボタ ン 2 4 1 0 、 簡単 なエデ ィ タ ー呼び出 し、 又は表示する グラ フ の選択ボ タ ン 2 4 1 1 、 表示する デ一 夕の選択ボタ ン 2 4 1 2 、 お よびヘルプボタ ン 2 4 1 3 等を表示する。 こ こ で制御対 象装置 2 1 0 1 か らのプロセスデータを表示する もの と して、 他に、 デー タ表や、 スケ一ラー等があ って も よい ま たディ スプレ イ上には上に挙げたデー タ表示手段が複 数個あ つて も よい。
図 3 3 はプロセスデータを表示する ト レ ン ドグラ フ
2 4 0 3 をよ り詳細に表 した ものである。 ト レ ン ドグラ フ 2 4 0 3 はデータ表示部 2 5 0 1 、 データ項目表示部 2 5 0 2 、 時刻力 一 ソ ノレ 2 5 0 3 、 時間軸 2 5 0 4 、 デ 一夕値力一 ソル 2 5 0 5 、 時間軸移動ボタ ン 2 5 0 6、 2 5 0 7 からなる。 .
プロセスデ一夕はデータ表示部 2 5 0 1 にグラ フ と し て表示される と と もに、 データ項目表示部 2 5 0 2 にそ の名前を表示する。 デ一夕、 およびその名前の対応は線 の太さ、 および色または線の種類で行う。
時刻カー ソル 2 5 0 3 は現在ディ スプレイ上に表示 し いるすべてのデータ (例えばメ ータ一 2 4 0 5 の示して いるデータ値、 映像 2 4 0 2 、 時計 2 4 0 6 の時刻、 ト レ ン ドグラ フ 2 4 0 3 の時刻カー ソル 2 5 0 3 上の点) の生成または記録 した時刻を時間軸 2 5 0 4 を用いて表 す。 すなわち、 ト レ ン ド グラ フ 2 4 0 3 の時刻カ ー ソ ル 2 5 0 3 は、 現在表示しているデータの記録した時刻を 表す時刻表示ユニ ッ トである。
時間軸 2 5 0 4 は表示すべきデータの発生 した時刻が. 現在表示 している時間軸 2 5 0 4 内にない場合には、 表 示 している時刻の値が右方向 (時間を戻す方向、 以下逆 方向 と呼ぶ) ま たは左方向 (時間を進ませる方向、 以下 正方向 と呼ぶ) に移動する こ とによ り、 時間軸 2 5 0 4 内にその時刻の値を表示する。 また時間軸 2 5 0 4 は拡 大、 縮小が可能で、 区間を指定 して拡大、 縮小する こ と ができ る。 これによ つて詳し く 見たい区間は時間軸 2 5 0 4 の拡大を行ない、 そ う でない区間は縮小を行な う こ とができ る。
時間軸移動ボタ ン 2 5 0 7 は時間軸 2 5 0 4 に表示 し ている時刻の値を右方向に移動させ、 表示している時刻 よ り前の時刻を表示する。 一方、 ボタ ン 2 5 0 8 は、 左 方向に移動させ、 表示 している時刻よ り後の時刻を表示 する。
デ一夕値カ ー ソ ル 2 5 0 5 は、 プロ セスデー タ の探索 を行な う ものである。 探索したいプロセスデータを選択 した後、 データ値力 一 ソルを探索値に持って行 く と、 時 間軸 2 5 0 4 及び時刻力一 ソ ル 2 5 0 3 が移動 して、 選 択 したデー タが探索値をと る時点に時刻カ ー ソ ル 2 5 0 3 が来る よ う になる。
以下の例では、 プロセスデー タ をディ スプレ イ に表示 するデータ表示ュニ ッ ト と して ト レ ン ドグラ フを用いる こ とにする。 も ち ろん ト レ ン ドグラ フ以外のデー タ表示 ュニ ッ トでも よレヽ。
本実施例のプロ セ ス監視システムにおいては以下の機 能がある。
( 1 ) 記録 した映像を再生する操作で、 映像、 音声を 再生するだけでな く 、 その映像が撮られた時点のプロセ スデー タを呼び出 し、 表示する。
( 2 ) ト レ ン ド グ ラ フ の時刻力 一 ソ ル 2 5 0 3 等時刻表 示ユニ ッ ト を用いて時刻を指定する こ とによ り、 そのデ 一夕が記録された時点の映像及び音声と、 その時点での プロセスデータを呼び出 し、 表示する。
( 3 ) プロセスデー タ、 及びその探索値を指定する 二 と によ り、 そのデータの探索を行い、 そのデ一夕を呼び出 し、 表示する と共に、 そのデータが記録された時点の映 像と、 その時点での他のプロセスデータを呼び出 し、 表 示する。
( 4 ) 記録した映像を再生する際に、 その再生速度によ り プロセスデータの時間に対する表示頻度を変える。
( 5 ) プロセスデータの時刻に関する表示頻度をあ ら かじめ指定する こ とで、 映像再生時にその表示頻度に合 わせた映像、 音声の再生速度を決定し、 再生、 表示する <
( 6 ) 操作員から操作情報を記録 し、 映像再生の際に 操作員の操作も再生する。
( 7 ) 操作員から操作情報を記録 し、 操作員の操作デ — 夕を指定する こ とによ り、 その操作を探索し、 操作が 行われた時点の映像、 およびプロセスデータを呼び出 し、 表不す。。
( 8 ) 映像内に操作員が夕 ツ チパネルを用いて選択で き る選択対象を定義 してお き、 映像再生時にそれを操作 員が選択する こ と に よ り 、 関連する プロ セスデー タ を表 不する。
( 9 ) 映像内に操作員が夕 ツ チパネ ルを用いて選択でき る選択対象を定義 しておき、 映像再生時にそれを操作員 が選択する こ とによ り、 関連する プロセスデー タ を強調 表示する。
( 1 0 ) 映像内に操作員がタ ツ チパネルを用いて選択で き る選択対象を定義 しておき、 映像再生時にそれを操作 員が選択する こ とによ り、 関連するプロセスデ一 夕 に関 する選択メ ニュ ーを表示し、 その メ ニューから一項目を 選択 した場合、 選択された項目のプロセステ一夕を表示 する。
( 1 1 ) 映像内に操作員がタ ツ チパネルを用いて選択でき る選択対象を定義しておき、 映像再生時にそれを操作員 が選択する こ とによ り、 関連するプロセスデータを映像 内の選択対象上に表示する。
( 1 2) 映像内に操作員がタ ツ チパネルを用いて選択でき る選択対象を定義しておき、 映像再生時にそれを操作員 が選択する こ とによ り、 関連するプロセスデー タを映像 上にコ ン ピュ ー タ グラ フ ィ ッ ク スで重ねて表示する。
( 1 3 ) 映像内に操作員が夕 ツ チパネルを用いて選択でき る選択対象を定義 しておき、 映像再生時にそれを操作員 が選択する こ とによ り、 関連する映像内の他の選択対象 を強調表示する。 ( 1 4 ) 映像内に操作員が夕 ツ チパネルを用いて選択でき る選択対象を定義 しておき、 映像再生時にそれを操作員 が選択する こ とによ り、 その選択対象の付加情報を表示 する。
( 1 5 ) 映像内に選択対象を定義 しておき、 映像再生時に プロセスデータを操作員が選択する こ とによ り、 選択 し たプロセスデータに関連する映像に切り替わる と共に、 映像内の選択対象を表示する。
( 1 6 ) 映像内に選択対象を定義 しておき、 映像再生時に プロ セスデータを操作員が選択する こ とによ り 、 選択 し たプロセスデ一夕に関連する映像に切り替わる と共に、 映像内の選択対象を表示しそのデータ値を選択対象上に 重ねて表示する。
( 17 ) 映像内に選択対象を定義しておき、 映像再生時に プロセスデータを操作員が選択する こ とによ り、 選択 し たプロセスデー タ に関連する映像に切り替わる と共に、 映像内の選択対象を表示 しそのデータ値をコ ン ピュ ータ —グラ フ ィ ッ クスで重ねて表示する。
以下、 記録されたプロセスデータ、 映像データ、 音声 デー タの再生について上記機能を詳し く 説明する。
図 2 9 から図 3 9 を用いて機能 1 を説明する。 モー ド 切替ボタ ン 2 4 1 0 を夕 ツ チパネルを用いて選択する事 によ り記録情報標準再生モー ドになる。 再生を している と き は、 再生で使われているの とは別の光ディ ス ク に記 録を行な う。 こ の時、 図 3 2 に示される よ う に、 ワー ク 領域 2 4 0 4 に ビデオコ ン ト ロ 一 ラ 一 2 6 0 3 が表示さ れる。 図 3 5 Aに示される よ う に、 ビデオコ ン ト ロ ー ラ 一は順方向 2 倍速再生ポタ ン 2 7 0 5 、 順方向標準速度 再生ボタ ン 2 7 0 4 、 逆方向 2 倍速再生ボタ ン 2 7 0 1 逆方向標準速度再生ボタ ン 2 7 0 2 、 および映像停止ボ タ ン 2 7 0 3 を持つ。 また、 モー ド切替ボタ ン 2 4 1 0 でス ロ ー モ ー ド再生を選択すれば、 図 3 5 B に示す様に 逆方向 2 倍速ボタ ン、 順方向 2 倍速ボタ ンの代わ り に逆 方向 1 Z 2 倍速再生ボタ ン 2 7 0 6 、 順方向 1 / 2 倍再 生ボタ ン 2 7 0 7 を表示する。 ただ し、 こ こ で標準速度 で再生する こ とは映像、 音声を記録した時と同 じ速度で 再生する こ とであ り、 順方向 とは、 時間が進む方向であ る。 従って例えば逆方向 2 倍速再生とは、 時間の進む方 向 とは逆方向に記録した ときの 2 倍の速度で再生する、 という意味である。 こ こでは、 記録情報を再生する際に 再生モー ドに標準とスロ ーを設けたが、 このよ う に分け な く て も良い。
順方向標準速度再生ボタ ン 2 7 0 4 をタ ツ チパネルで 押すこ とによ り、 順方向、 標準速度で映像デー タおよ び 音声データが再生され、 映像表示部 2 4 0 2 に表示され る。 この時、 この映像にあわせて ト レ ン ドグラ フ内の時 刻カ ー ソル 2 5 0 3 が移動 し、 表示している映像が記録 された時刻におけるプロセスデー タが時刻カ ー ソ ル 2 5 0 3 上に来る よ う にする。 時刻カ ー ソ ル 2 5 0 3 はある 一定の と こ ろ まで来る と、 プ ロ セ スデー タ をデ一 々ベー ス 2 1 0 4 か ら呼び出 し、 時間軸 2 5 0 4 に表示してい る時刻値が左方向 ( または右方向) に移動する こ とによ り 、 現在時間軸 2 5 0 4 上にない新たな時刻のプロ セ ス デー タを表示する。 こ の他にメ 一 タ ー 2 4 0 5 等、 他の プロセスデー タ表示部も映像が撮られたと き にそのデー 夕がと っていた値を映像が表示される と共に次々 に表示 する。 以上のよ う に映像を再生する操作で映像、 音声が 再生するだけでな く 、 その映像が撮られた時点のプロセ スデ一 夕を呼び出 し表示する。
これによ り映像を見ながらその時点におけるプロセス データを参照する こ とができる。 また他の再生ボタ ンを 用いる こ とで映像情報の早送り、 逆再生、 スロー再生等 をプロセスデータを参照しながら行な う こ とが出来、 運 転状況の診断、 制御指合を出すための補助、 異常時点の 発見、 解析等に役立つ。
次に本例の実現方法について示す。
まず、 本例のプロセスデータおよひ'映像、 音声データ のデータ構造および記録方法を示す。 図 3 6 Aにおいて データ 2 8 0 0 は制御装置 2 1 0 1 から制御用計算機に 送られるプロセスデータの構造を表わす。 一般に一つの ケーブルで複数の種類のデータを入力するので、 プロセ スデー タの始ま り を示すヘ ッ ダ 2 8 0 1 、 デー タの種類 2 8 0 2 、 デー タ数 2 8 0 3 、 及びプロセスデータであ るデータ 2 8 0 4 から 2 8 0 6 までのよ う な構成になる < 制御用計算機 2 1 0 2 は、 各ケーブルから入って く る こ の形式の複数個のデー タ を L A N 2 1 0 に流す。 'デ一 夕 べ一 ス 2 1 0 4 では流れて き たプロ セ スデ一 夕 を分解 し、 デー タ ベー ス 2 1 0 4 内にあ る 時計の時刻 t と共に デー タ 2 8 2 0 (図 3 6 B ) の構造を もつ配列に記録す る。 こ こ で、 2 8 2 1 はデー タ イ ン デ ッ ク ス、 2 8 2 2 はデー タ名、 2 8 2 3 は時刻、 2 8 2 4 はプロ セ スデー タであ る。 こ の よ う にデー タベース 2 1 0 4 は、 プロ セ スデー タ の種類に対応する テーブルを持ち、 そのテープ ルの要素であ る配列の最終要素の後に最新のデー タ を時 刻 t と共に記録する。
一方ワ ー ク ステー シ ョ ン 2 1 0 3 か らプロ セスデー タ のブロ ッ ク 呼び出 しの命令がデー タベース 2 1 0 4 に入 力 した場合は、 図 3 6 C のデー タ 2 8 1 0 に示す構造を 持つデー タ を 2 1 0 3 に送る。 こ こ でプロ セスデー タ の 始ま り を示すヘ ッ ダ 2 8 1 1 、 デー タ の種類 2 8 1 2 、 デー タ数 2 8 1 3 、 及びプロ セスデー タであ る デ一 夕 2 8 1 4 か ら 2 8 1 6 まで、 及びデー タ 2 8 1 4 の時刻デ — 夕 2 8 1 7 、 デー タ 2 8 1 5 の時刻デー タ 2 8 1 8 、 デー タ 2 8 1 6 で時刻デー タ 2 8 1 9 で構成さ れる。 も ち ろん、 ブロ ッ ク 呼び出 し命令の種類に よ り 、 こ のデ一 夕 の長さ、 時刻デー タ の間隔等は異な る。
次に映像、 音声デー タ の記録について示す。 ま ず図 3 6 D に示す様に、 記録する映像音声デー タ の構造は 2 8 3 0 の通 り であ る。 一般に複数個のカ メ ラ か らの映像デ 一 夕 を記録する のて、 映像音声デー タ のイ ン デ ッ ク ス 2 8 3 1 (デ ィ ス ク N O . ) とデ一夕名 2 8 3 2 (カ メ ラ N O . またはボイ ラ N O . 等) を有する。 2 8 3 4 は音 声の記錄された時刻、 2 8 3 3 は音声情報、 2 8 3 5 は 映像の記録された時刻、 2 8 3 6 は映像情報である。 こ こで図のよ う に、 映像、 音声を別々 に記録しないで、 一 緒に記録して も よい。 一緒に記録する場合は時刻情報を 共有する こ とになる。
以上の様な映像、 音声デー タに記録、 及びそれを再生 する方法を図 3 7 を用いて述べる。 本実施例においては . 映像記録に関 してまず 2 9 0 1 から 2 9 0 3 に示される 3 段階からなる手順 (ステ ッ プ) をワー ク ステー シ ョ ン 2 1 0 3 内の C P U 2 2 0 1 において実行する。 この手 順が実行された後、 2 9 0 4 で記録開始となる。 映像記 録においては、 システムの立ち上げ時や、 再生モー ドを 終了 し記録モー ドに戻る時等で、 最初に全映像画面の記 録を行ない、 以下は 2 9 0 5 で示す通り、 記録条件を潢 た した場合にのみ 2 9 0 6 で映像を記録する。 音声情報 に関 しては、 映像情報に比べて比較的記録に必要な容量 が小さいので随時記録する こ とにする。 以下、 専ら、 映 像情報の記録及び再生について述べる。
映像記録対象決定手順 2 9 0 1 では、 記録すべき対象 をどこ にするかを決める。 具体的には以下の方法のいず れかである。
( 1 ) カ メ ラ映像画面の全てを記録対象とする。 実現 方法はカ メ ラからの映像信号のすべてを記録対象とする c ( 2 ) プロセスデー タを出力する部分、 動 く 部分、 変 化する部分等を含む領域をあ らか じめ指定 しておき、 そ の領域のみを記録対象とする。 図 3 6 E に示すデー タ 2 8 4 0 は、 映像デー タ 2 8 3 6 の こ の場合のデー タ構 造である。 データ 2 8 4 0 の要素は、 記録対象とする画 像デ一 夕 2 8 4 6 、 およびその位置情報、 即ち、 その撮 影された画像データの座標値 2 8 4 1 、 2 8 4 2 、 画像 データの大き さ (画面の空間的大き さ) 2 8 4 3、 2 8 4 4 、 およびそれ以前で最も近い全画面デー タを記 録 した時刻 (又はイ ンデ ッ ク ス) 2 8 4 5 からなる。 実 現方法は、 I T Vカ メ ラが、 ズーム、 チル ド、 パン等を 行う際には、 全画面を記録する。 そのよ う なカ メ ラ 作 の後、 カ メ ラが停止した ら、 映像データ 2 8 3 6 をヮ ー ク ステー シ ョ ン 2 1 0 3 に送り、 画像解析を行い、 記録 対象を含む領域を確定する。 こ の領域は簡単のため、 例 えば長方形の様な も のでよい。 こ の領域が決定 した ら、 その領域の座標値、 大き さ等の位置情報を映像、 音声記 録部 2 1 0 8 に送り、 以下 C P U 2 3 0 1 がカ メ ラから 送られて く る画像から こ の領域のみを取り 出 し記録する 以後再びカ メ ラ動作が行われる まで、 こ の領域のみを記 録する様にする。 再生時においては時刻 2 8 4 5 の映像 デー タを呼び出 し記録 したデー タ 2 8 4 6 とを C P U 2 3 0 1 がブ レ ン ドする こ とによ り、 全画面を生成する 映像記録条件決定手順 2 9 0 2 では、 映像を記録する 条件を決定する。 具体的には以下の条件のいずれかであ る。
( 1 ) 定め られた時間間隔で記録する。 これはワー ク ス テ ー シ ョ ン 2 1 0 3 、 または映像、 音声記録ュニ ッ ト 2 1 0 8 内の 〇 ? 11 2 2 0 1 、 2 3 0 1 に ク ロ ッ クを持 つ。 前者の場合は一定の時間毎に記録する命令を映像、 音声記録部 2 1 0 8 に送る。 後者の場合は記録開始の命 合のみが映像、 音声記録部 2 1 0 8 に送られ以下 C P U 2 3 0 1 が記録時刻を管理する。
( 2 ) 各カ メ ラからの映像において、 前画面との差分 がある閾値以上にな っ た ら記録する。 これは映像、 音声 記録部 2 1 0 8 内の主記憶 2 3 0 2 上に記憶した画面の 映像情報と現時点における映像情報との差分値を C.P U 2 3 0 1 で計算し、 その値によ って記録命令を映像、 音 声読み出 し部 2 3 0 4 に送る。
( 3 ) 各プロセスデータがそのデータ固有のある一定 の値を越えた ら記録する。 これはワー クステー シ ョ ン 2 1 0 3 に入って く るプロセスデ 夕を C P U 2 2 0 1 で処理し、 特に異常があるデータに関する映像を撮って いるカ メ ラ の映像を記録する よ う 、 映像音声記録部 2 1 0 8 に命令する。
( 4 ) 各プロセスデータが前のデータ との差分がその デー タ固有のある一定の値を越えた ら記録する。 実現方 法は ( 3 ) と同様である。
( 5 ) 各プロセスデータの重み付き平均、 即ち重みを w i ( w i ≥ 0 ) 、 各プロセスデータを d i と して e = ∑ w i 氺 d i
がある一定の値を越えた ら記録する。 実現方法は 〔 3 ) と同 じである。
( 6 ) 定め られた時間間隔で記録 し以上の条件のいず れかの状態にな っ た ら よ り短い時間間隔で記録 し条件を 満たさな く な った ら元の時間間隔に直す。
映像記録方法決定手順 2 9 0 3 では記録方法を決定す る。 具体的には以下の方法のいずれかである。
( 1 ) I T Vカ メ ラからの映像情報をそのま ま記憶す る。
( 2 ) 前画面との差分を記録 してい く 。 これは主記憶 部 2 3 0 2 にノ ' ッ フ ァ リ ン グした映像と現在の映像との 差分を C P U 2 3 0 1 でとる。 再生時においては全記録 対象を記録 してある時点から現時点までの差分を加減算 する こ とで記録対象の映像を作成する。
以上のよ う に記録された映像デ一夕の時刻 t における 表示は、 図 3 8 に示す手順で行な う。 手順 3 0 0 1 で映 像デー タのイ ンデッ ク ス 2 8 2 1 及び、 時刻 t の指定を する。 こ こ で映像イ ン デ ッ ク ス の指定はワ ー ク ステー シ ヨ ン 2 1 0 3 によ り行なわれ、 時刻 t の指定はワー ク ス テー シ ヨ ン 2 1 0 3 による場合 と映像、 音声記録部 2 1 0 8 内の C P U 2 3 0 1 によ る場合 とがある。 映像 音声記録読み出 し部 2 3 0 4 は、 手順 3 0 0 2 及び 3 0 0 3 に示される よ う に時刻 t における映像が記録されて ない場合には、 時刻 t よ り以前に記録された t に も つ と も近い時点 s の映像デー タを読みだす。 手順 3 0 0 4 で 映像デー タが映像情報をそのま ま ^録 した ものであれば それを使う。 一方、 .差分を記録 した も のであれば、 手順 3 0 0 5 で時刻 t に も つ と も近 く 、 かつ差分値でない映 像情報を読みだし映像、 音声記録部 2 1 0 8 内の主記憶 2 3 0 2 に記録 し、 手順 3 0 0 6 でそこからの差分をと つて映像を作成する。 映像が、 カ メ ラ画像すべてである 場合は表示する。 そ うでない場合は 3 0 0 8 で背景と合 成 した後表示する。
映像、 音声記録部 2 1 0 8 内の C P U 2 3 0 1 は、 ヮ — ク ステー シ ョ ン 2 1 0 3 か ら再生方向、 速度を指定し た再生命合が送られる と次式で内部に持つ表示時刻デー 夕 t を進ませる。
t = t + a * v
こ こ で wは標準再生速度における映像読みだし速度、 a は再生方向が順方向の時は正で、 逆方向の時は負で、 2 倍速の時は絶対値が 2 であ り、 標準速のときは 1 であ る係数である。 再生時の映像表示は、 順方向再生の場合 は時刻データ 2 8 3 5 をこ の時刻データ t が越えた と き ワー ク ステー シ ョ ン 2 1 0 3 に映像データ 2 8 3 6 を送 り、 逆方向再生の場合はこ の時刻データ t が 2 8 3 5 の 次の時刻デー タを下回 った と き映像データ 2 8 3 6 を送 る。 ワ ー ク ステー シ ョ ン 2 1 0 3 から表示中の呋像の生 成時刻の要求があ った場合はこの時刻 t を 2 1 0 3 に送 o 以上の記録、 再生方式の も とに、 図 3 9 は第一の機能 を実現するための処理手順である。 手順 3 1 0 1 におい て メ ニ ュ ーで再生モ ー ドが選択される 。 こ の時ワ ー ク ス テー シ ヨ ン 2 1 0 3 は図 3 4 の 2 6 0 3 で示される コ ン ト ロ ールボタ ンを表示する。 処理 3 1 0 2 において、 ヮ — ク ステー シ ョ ン 2 1 0 3 は、 タ ツ チ ノ、0ネル等のポイ ン ティ ン グデバイ スによ る入力信号を処理し、 その入力位 置を調べる こ とによ ってボタ ンの種類の検出を行う。 こ の時、 そのボタ ンが押されたこ とを示すために図 3 4 で 示される よ う に押されたボタ ンの色を変えてディ スプ レ ィ上に再表示する と共に、 再生方向、 および速度を決定 する。 処理 3 1 0 3 においては、 決定 した方向、 速度を も とに、 次に表示するプロセスデータの生成された時刻 t を決定する。
具体的には次のよ う な 2 通り の方法である。
( 1 ) 映像、 音声記録部 2 1 0 8 に表示中の映像、 音 声の記録した時刻 t を問い合わせる。
( 2 ) 次式で表す時刻 t を次の表示すべき時刻 とする t = t + a * v
こ こ で v は現在表示 しているすべてのデー タを一回ず つ書き換える時間、 a は再生方向が順方向の時は正で、 逆方向の時は負で、 2 倍速の時は絶対値が 2 であ り 、 標 準速の と きは 1 である係数である。 ただ しデー タを書き 換える時間は計算機の他の負荷で変って来るので、 ( 1 ) の方法 も併用する。 これを用いる こ とて、 ワ ー ク ス テー ジ ヨ ン 2 1 0 3 が表示にかかる時間分の映像、 音 声情報の進む時間だけ、 次の表示情報の時刻を進める こ とができ る。
処理 3 1 0 4 においては時刻 t における表示すべきプ ロ セ ス デー タ 力 ワ ー ク ス テ ー シ ョ ン 2 1 0 3 内にバ ッ フ ァ リ ン グされているデータで十分か判断し十分な場合は それらを表示する。 ただ し十分な場合とは、 時刻 t にお けるプ ロ セ スデ一夕がバッ フ ァ リ ン グされているか、 ま たは時刻 t におけるデー タはないがその前後のデータが ノくッ フ ァ リ ン グされている場合である。 前後のデ一夕の みノくッ フ ァ リ ン グされている ときは、 も っ と も t に近い データで代用するか前後のデータを線形に補間する こ と でデータを作成する。 十分でない場合には処理 3 1 0 5 において、 ワー ク ステー シ ョ ン 2 1 0 3 は、 表示速度、 方向を基にデー タ ベース 2 1 0 4 から表示デ一夕 と して 読み込むデー タの範囲を決定し、 処理 3 1 0 6 で、 表示 するプロセスデー タの種類と読み込むデ一夕の範囲を L A Nを通じてデータベース 2 1 0 4 に送り、 データべ一 ス 2 1 0 4 力、 ら要求されたプロセスデータがワー ク ステ — シ ヨ ン 2 1 0 3 に送られる。 処理 3 1 0 7 においては 映像、 音声情報を表示あるいは出力 し、 処理 3 1 0 8 に おいてはワ ー ク ステー シ ョ ン 2 1 0 3 では送られてきた それぞれのプロセスデータを ト レ ン ドグラ フゃメ 一夕一 という よ う に、 主記憶 2 2 0 2 に記録 してある個々 のプ ロ セ スデー タ の表示の仕方で映像情報、 音声情報と共に . 表示する。
次に図 2 9 か ら図 3 4 およ び図 4 0 を用いて第 2 の機 能について述べる。 時刻カ ー ソ ル 2 5 0 3 は、 夕 ツ チパ ネル 2 1 0 7 を用いて力 一 ソ ル 2 5 0 3 上を指で押さえ たま ま左右に動かすこ とによ り、 カ ー ソ ル 2 5 0 3 が左 右に動 く よ う にな っている。 この時、 図 4 0 に示される よ う に、 直接 ト レ ン ドグラ フ 2 4 0 3 内の時刻カ ー ソ ル 2 5 0 3 を参照したい時点に動かすこ とによ り、 他の ト レ ン ドグラ フ 2 4 0 3 内の時刻カ ー ソ ル 3 2 0 1 が、 時 刻力一 ソ ル 2 5 0 3 が指し示す時刻に移動 し、 時刻力 一 ソ ル 2 5 0 3 で決定される時刻の映像を呼び出 し映像表 示領域 2 4 0 2 に表示する。 またこ の時、 図 3 0 におけ る メ ーター 2 4 0 5 等も時刻カ ー ソ ル 2 5 0 3 が指し示 す時刻のデータを表示する。 もちろん現在 ト レ ン ドグラ フ 2 4 0 3 の時間軸に表示されてない時刻の指定も時間 軸移動ボタ ン 2 5 0 6、 2 5 0 7 等を用いる こ とで行な える。 以上のよ う に表示されているプロセスデータの参 照したい所を指定する こ とで、 そのデー タが記録された 時点の映像と、 その時点での他のプロセスデ一 夕を参照 する こ とができ る。 これによ り操作員がプロセスデ一夕 等を参照したい時点を ト レ ン ドグラ フ 2 4 0 3 等を見て 直接指定する こ とで映像の表示が可能とな る。
これによ り、 プロセスデー タの参照によ り具体的な現 場の様子を参照する こ とが出来る。
以下に こ の例の実現方法を図 4 1 を用いて述べる。 図 3 9 のア ルゴ リ ズム とは、 処理 3 3 0 1 で時刻力 一 ソ ル の指す時刻 t を検出す'る こ と と、 処理 3 3 0 2 の時刻 t が既に ワ ー ク ス テー シ ョ ン 2 1 0 3 内 にノ ' ッ フ ァ リ ン グ されているかの判定のみが異なる。 処理 3 3 0 1 におい ては夕 ツ チパネル等のポイ ンテ ィ ン グデバイ スによ る入 力信号の座標値をワ ー ク ス テ ー シ ョ ン 2 1 0 3 内の C P U 2 2 0 1 が処理し、 時刻カ ー ソル 2 5 0 3 をその座標 上に再描画する と共に、 時刻カー ソル 2 5 0 3 のさす時 刻 t を座標値から割り 出す。 も し時刻 t のデ一夕がヮ ー ク ステー シ ョ ン 2 1 0 3 内にノくッ フ ァ リ ングされてない 場合には以下実施例 1 における手順 3 1 0 5 .、 3 1 0 6 を行ない、 以下手順 3 1 0 6 、 3 1 0 7 でデータ、 映像. 音声を表示する。
第 3 の機能について述べる。 図 4 2 に示される よ う に タ ツ チノ、。ネ ル 2 1 0 7 を用いて ト レ ン ドグラ フ 2 4 0 3 内のデータ項目表示部内のデータ項目 3 4 0 1 を選択 し た後に、 データ値力一 ソル 2 5 0 5 を探索を したい値に 持っていき探索値を決定する。 こ の時、 選択されたデ一 夕がデータ値カー ソル 2 5 0 5 の示す値をと る時点に時 刻力一 ソ ノレ 2 5 0 3 が移動 し、 他の ト レ ン ド グ ラ フ 2 4 0 3 において もその時点に時刻力一 ソル 3 4 0 2 が移動 し、 その時点の映像が映像表示部 2 4 0 2 に表示される , ま たこ の時、 図 3 2 における メ ータ 一 2 4 0 5 等も時刻 ガー ソ ル 2 5 0 3 が指し示す時刻のデータを表示する。 こ 二で検索は時間軸に対 して逆方向に一回のみ行われる , さ らに検索 したい場合は時間軸移動ボ タ ン 2 5 0 6 を押 すこ とでさ らに逆方向に検索が行われる。 一方、 順方向 に検索する場合にはボ タ ン 2 5 0 7 を押すこ とで順方向 に検索がな される。 以上のよ う に表示されている プロセ スデー タ において、 値を探索する と、 探索結果が表示さ れ、 その表示されたデー タが記録された時点の映像と、 その時点での他のプロセスデータを参照する こ とができ 以下にこ の例の実現方法を図 4 3 で述べる。 処理 3 5 0 1 におレ、てはタ ツ チノ、。ネル 2 1 0 7 等のポイ ンテ ィ ン グデバイ スによる入力信号の座標値をワー ク ステー シ ョ ン 2 1 0 3 が処理し、 データ項目表示部 2 5 0 2 におい て探索対象に選択されたデータ値カー ソ ル 2 5 0 5 によ つて示された探索値を決定する。 次に処理 3 5 0 2 にお いて探索の方向、 即ち時間軸に対レ順方向探索、 または 逆方向探索を決定する。 これは、 例えば、 基本的には逆 方向探索が一回行われ、 さ らに時間軸移動ボタ ンの順方 向のボタ ン 2 5 0 7 が押された とき には順方向に探索を 時間軸移動ボタ ンの逆方向ボタ ン 2 5 0 6 が押された と きは更に逆方向へ探索を行な う、 とする。 こ のボタ ンが 押されたかの判断はワ ー ク ス テ ー シ ョ ン 2 1 0 3 が行な う。 処理 3 5 0 3 においては、 デ一夕べ一ス 1 0 4 に探 索対象、 探索値、 現在表示 しているデー タ作成時刻、 探 索方向等を含んだ探索命令を出 し、 手順 3 5 0 4 におい て最初に発見できた探索値と表示時刻を決定する。 以下 例 1 の手順 3 1 0 4 から 3 1 0 9 までと同 じであるので 省略する。
こ の機能によ り あるプロ セスデ一夕が一定値を取る条 件での、 他のプロセスデー タ値と映像情報を用いた比較. 分析等や、 極 く まれに しか起こ らない異常値等の呼び出 しが可能となる。
第 4 の機能に対する例を図 4 4、 4 5、 4 6 で述べる < 図 4 4 では映像情報を再生する際に順方向 2 倍速ボタ ン 2 7 0 5 を選択 した場合に、 ト レ ン ドグラ フ 2 4 0 3 内 の時間軸 2 5 0 4 が 2 倍の範囲の時間を表示 し、 現在表 示 してあ っ たプロセスデータ は新しい時間軸にあわせて 再表示される と と もに、 表示されてなかったデータはデ —タベースから読みだされ時間軸にあわせて表示される < 次に、 映像表示部 2 4 0 2 に標準速度の 2 倍の速度で映 像が表示され、 時刻力一 ソ ル 2 5 0 3 が移動する。 こ の よ う に 2 倍速再生時には、 ト レ ン ドグラ フ 2 4 0 3 内に . よ り長い時間のデータを表示する こ とが可能とな り、 デ 一夕の時間による変化を概観する こ とができ る。 このよ う な表示はデータの検索において便利である。
一方図 4 5 においては、 1 Z 2倍速度再生ボタ ン
2 7 0 7 を選択 した場合に、 時間軸 2 5 0 4 が標準速度 の時の半分の範囲の時間を表示する。 こ の と き、 よ り詳 し く データを表示する こ とが出来るので、 標準速度の時 には表示されなかったデー タをデータベースから読み込 みすでにあ っ たデータ と併せて再表示する。 即ち映像を 再生する際に、 再生する速度によ って、 プロ セ スデー タ の呼び出 し方、 表示方法を変える。. これによ つて、 再生 速度を速 く する場合は、 長い時間のデー タ を ト レ ン ド グ' ラ フ 2 4 0 3 に表示でき るのでデー タの探索、 概観等が 容易にな る。 また、 プロセスデー タを呼び出す際に再生 速度が速い と呼び出すデー タの生成時刻の間隔が大き く なるが、 こ の表示を用いる こ とでの呼び出 しの荒さが目 立たな く なる。 一方、 再生ス ピー ドを遅 く する場合は、 デー タを詳し く 表示する こ とができ る。 したがって詳し く 解析したいよ う な時点では、 映像をスロー再生するだ けで、 詳し く プロセスデー タを表示でき る。
これによ り、 再生速度によ ってプロセスデータの時間 に対する表示頻度を変えるので計算機の負荷をある程度 抑える こ とが出来る。
こ の例の実現方法を図 4 6 を用いて述べる。 手順
3 1 0 2 においては操作員か らの入力によ り映像情報、 音声情報を再生する方向、 ス ピー ドを決定する。 手順 3 8 0 1 ではワー ク ステー シ ョ ン 2 1 0 3 において、 決定 された速度に基づき プロセスデー タの表示方法、 呼び出 し方法の決定を行う。 表示方法は、 ト レ ン ドグラ フ
2 4 0 3 等における時間軸表示単位、 即ち、 どの く らい の間隔で時間を刻むか、 を決め、 呼び出 し方法は、 呼び 出すブロ ッ ク内におけるデー タ間の時間間隔、 および一 回の呼び出 しプロ ッ ク における時間の長さを決定する。 手順 3 1 0 4 においてバ ッ フ ァ リ ン グ'されているデー タ では不十分な場合は、 手順 3 1 0 5 においてこ の決定 し た時間間隔、 およ び時間長さをコ ー ド化しデー タベー ス に送る。 データべ一スでは手順 3 1 0 5 で送 られてき た コ ー ドに基づき、 時間間隔、 時間長さ分のブロ ッ ク デ一 夕を読みだ しワ ー ク ス テー シ ョ ン 2 1 0 3 に送る。 以下 ワー ク ステージ ョ ンでは決められた表示方法に基づきデ 一夕表示を行う。 この部分は前記実施例の手順 3 1 0 4 から 3 1 0 9 までと同 じであるので省略する。
第 5 の機能を述べる。 図 4 7 においてはプロセスデ一 夕の表示の仕方と して、 ト レ ン ドグラ フ 2 4 0 3 の時間 軸の区間 3 9 0 1 では、 時間軸 2 5 0 4 を 1 Z 2 に縮小 化し、 区間 3 9 0 2 ではそのま まで、 区間 3 9 0 3 では 2 倍に拡大したものである。 このとき、 表示するプロセ スデ一夕の生成時刻の間隔は区間 3 9 0 1 では区間 3 9 0 2 の 2倍に、 区間 3 9 0 3 では区間 3 9 0 2 の 1 Z 2 倍になる。 したがって、 区間 3 9 0 1 では前実施例にお ける ち ょ う ど 2 倍速再生の時と同 じ表示に、 区間 3 9 0 2 では標準速度再生と同 じ表示に、 区間 3 9 0 3 では 1 Z 2 倍速度再生と同 じ表示にな っている。 この場合に、 ビデオコ ン ト ロ一ラ一 2 6 0 3 で標準順方向再生をボタ ン 2 7 0 4 を用いて行なえば、 映像を呋像表示領域
2 4 0 2 に、 時刻力一 ソル 2 5 0 3 が区間 3 9 0 1 にあ る場合には 2 倍速で、 区間 3 9 0 2 にある場合には標準 速度で、 区間 3 9 0 3 にある場合には 1 / 2 倍速で表示 する。 即ち、 プロセスデータの表示の方法を予め設定 し てお く こ とで、 再生する際に、 映像再生時の速度をその 表示方法にあわせて設定 し、 その速度で再生を行な う 。
これによ り、 操作員が表示するデー タの表示方法を指 定でき るだけでな く デー タ を詳し く 見たい と こ ろは映像 をゆっ く り と、 デー タを飛ば してみたい と こ ろは映像を 飛ば して再生する こ とができ る。
こ の例の実現方法について図 4 8 で述べる。 手順 4 0 0 1 で操作員からの入力によ り 、 縮小、 拡大すべき 時間軸の区間を指定する。 手順 4 0 0 2 でその区間に対 して操作員は、 拡大、 縮小のいずれかを選択する。 これ らの指定、 選択は例えばメ ニュ ーで行な って も よい し、 こ の例のよ う に夕 ツ チパネル等で区間を指定した後その 区間の端点をつかんで区間を延び縮みさせて行な う こ と もでき る。 こ の時、 手順 4 0 0 3 で時間軸を再表示する と共に、 必要な らばデー タベースか らブロ ッ ク呼び出 し を行ない、 プロ セスデータを再表示する。 こ の時各区間 の再生速度をワ ー ク ステー シ ョ ン 2 1 0 3 は決定し、 主 記億 2 2 0 2 に記憶してお く 。 次に再生が開始され、 手 順 3 1 0 3 で、 表示時刻 t が決め られる。 こ の時刻 t を 含む区間を C P U 2 2 0 1 で決定した後、 も しそれまで の区間 と違う 区間であれば、 手順 4 0 0 4 で映像、 音声 記録部 2 1 0 8 に再生速度、 方向等の再生命令を送る。 以下、 前記実施例の手順 3 1 0 4 から 3 1 0 9 と同様で め る。
第 6 の機能について述べる。 図 4 9 においては、 映像 情報を再生する際に、 プロセスデー タのみでな く 操作員 か らの操作情報 も併せて再生する。 こ の と きその時点で デ ィ スプ レ イ上に表示 してあ っ た映像、 プロセスデー タ が表示される と と もに、 マウスカー ソ ル 4 1 0 1 等で示 される操作員の入力が再生、 表示される。 こ の時、
4 1 0 2 で示される よ う に映像表示領域 2 4 0 2 に表示 する映像を新たに選択する こ とによ り、 操作員の操作に よ り起こ り、 かつ記録した時点では見れなかった映像情 報を参照する こ とができ る。 ま た、 同様の操作で表示し ていなかったプロセスデータ等も表示する こ とができ る これによ つて、 例えば操作員の操作ミ ス等で起こ る異常 を素早 く 発見する こ とができ る。 また制御操作の教育に も大きな効果を上げる こ とが出来る。
また、 操作員の操作情報を再生し、 プロセス運転状況 変化が、 操作員の操作命令による ものか、 がわかる。 ま た こ のよ う な操作命合を記録、 再生する こ とで、 操作手 順の説明に使えた り、 教育用のシステム、 操作員の操作 状況の監視を行な う こ とが出来る。 .
第 7 の機能は、 探索したい操作員からの操作情報を入 力 し、 入力 された操作情報を探索し、 その時点での操作 情報と映像情報、 音声情報とプロセスデータが呼び出 さ れ表示される。 これによ つて、 情報の探索を操作員が行 つた操作を目印に して行える。
従って、 操作員の操作命令を検索する こ とができ るの で、 操作員の操作によ って生 じたプロセスデー タの変化- 映像の変化を検索でき る。
以上 2 つの例の実現方法を以下に述べる。 図 3 6 F に おいて、 デー タ 2 8 5 0 はデー タベー ス 2 1 0 4 に記録 する画面情報を示 した も のであ る。 画面情報 2 8 5 0 は 時刻 2 8 5 1 、 動画表示領域 2 2 0 2 に表示する映像を 撮る カ メ ラ名 2 8 5 2 、 ト レ ン ド グラ フ 2 4 0 3 に表示 する プロ セスデー タ名 2 8 5 3 力、 ら 2 8 5 5 まで、 メ ー 夕一 2 4 0 5 や他のデー タ表示ュニ ッ 卜 に表示 してレヽる デー タ名 2 8 5 6 等か らな る。 こ のデー タ は操作員が動 画像表示領域 2 4 0 2 に表示する映像を切 り替えた り 、 ト レ ン ドグラ フ 2 4 0 3 に表示する デー タ を変更、 追加 削除 した と き ワ ー ク ステー シ ョ ン 2 1 0 3 がデー タべ一 ス 2 1 0 4 に送る。 '
操作員か ら入力 される操作デー タ のデー タ構造は図 3 6 B のプロ セスデー タ のデー タ構造 2 8 2 0 と同 じで あ る。 ただ しプロ セスデー タ値 2 8 2 4 の代 り に操作デ 一 夕 と して入力 した操作命令 (ポイ ンテ ィ ン グデバイ ス を用いて操作員が入力 した座標値をワ ー ク ステー シ ョ ン 2 1 0 3 が処理 して生成 した命令) を入れる。 こ のデー タ も操作命令があ っ た時点でワ ー ク ステー シ ョ ン 2 1 0 3 が こ のデー タ をデー タ ベー ス 2 1 0 4 に送る。
再生に関 しては、 図 3 9 で示 したア ルゴ リ ズム と 同 じ である。 ただ し手順 3 1 0 8 において、 プロ セスデー タ は表示する デー タ を表示時刻 t の最 も近い時刻のデー タ 値か、 前後のデー タ を補間する こ とでデー タ を作成 して いたが、 操作員操作データの実行は、 順方向再生の時は 表示時刻 t が操作デー タの記録時刻を越えた とき、 逆方 向再生の場合は操作デー タの記録時刻を下回っ た と き と する。 また時刻 2 8 5 1 に記録 した画面情報デー タの内 容を表示するのは、 順方向再生の時は表示時刻 t が時刻 2 8 5 1 以上にな った と き、 逆方向再生の場合は時刻 2 8 5 7 以下にな った とき とする。
検索に関 しては図 4 3 で示したアルゴ リ ズム と同一で ある。 ただ し、 手順 3 5 0 4 で表示時刻 t を決定した後 手順 3 1 0 6 で t 以前の t に最も近い画面情報データを まず呼びだし、 その後表示すべきプロセスデータを決定 しプロセスデータを呼び出す。
以下の例は上記すベての実施例において、 映像'、 音声. プロセスデータを再生する際に、 映像、 およびプロセス デ一夕の関連表示についての ものである。
第 8 の機能は、 図 5 0 において動画像表示領域 2 4 0 2 に表示してあるボイ ラーの窓を選択対象 4 2 0 1 と定 義しておき、 これを選択する と、 その選択対象が選択さ れた こ とを示すグラ フ ィ ッ ク スが表示され、 さ らにそ こ から生成されるプロセスデータ名 4 2 0 2 力 "^ ト レ ン ドグ ラ フ 2 4 0 3 内のプロセスデータ項目 に表示され、 プロ セスデ一夕 4 2 0 3 がグラ フで表示される。 以上のよ う に映像内の選択対象を、 ポイ ンティ グデバイ スを用いて 選択する こ とによ り 関連するプロセスデータを表示する , こ こでも ちろん、 選択対象がボイ ラーの窓でな く ても、 あ らか じめ選択対象 と して、 制御用計算機内に登録 して あればよい。 ま た ト レ ン ド グ ラ フ 2 4 0 3 にデー タを表 示する以外に メ ー タ ー 2 4 0 5 等に表示する こ と もてき るが、 以下簡単のため ト レ ン ドグラ フ 2 4 0 3 にデー タ を表示する場合のみ示す。
第 9 の機能は、 図 5 1 において動画像表示領域 2 4 0 2 に表示してあるボイ ラーの上方パイ プを選択対象
4 3 0 1 と定義 し、 これを選択する と、 その選択対象が 選択された こ とを示すグラ フ ィ ッ ク スが表示され、 その 選択対象に関連するプロセスデ一 夕 4 3 0 2 が既に ト レ ン ドグラ フ 2 4 0 3 に表示 してある蒸気圧である場合に. プロセスデータ項目の蒸気圧 4 3 0 2 がハイ ライ 卜する と と もに、 グラ フ 4 3 0 3 がハイ ライ ト して操作員によ つて選択された選択対象の関連データである こ とを示す, 即ち選択された映像内の選択対象に関するデー タがすで に表示されている場合はデー タがハイ ラ イ ト等する こ と で選択された こ とを示す。
第 1 0 の機能は、 図 5 2 において動画像表示領域
2 4 0 2 に表示 してあるボイ ラ ーの左方パイ プを選択対 象 4 4 0 1 と定義し、 これを選択する と、 それが選択さ れたこ とを示すグラ フ ィ ッ ク スが表示され、 その選択対 象に関連する プロセスデー タが複数個ある場合に、 動画 像内の選択対象のす ぐ脇にプロセスデー タを項目 とする 選択 メ ニュ ー 4 4 0 2 が表示され、 その中か ら参照した いプロセスデー タ をポイ ン テ ィ ン グデバイ スを用いて選 択する こ とで、 ト レ ン ドグラ フ 2 4 0 3 内にデ一 夕を表 示する。 即ち選択された映像内の選択対象に関連するデ 一 夕が複数個ある場合は選択 メ ニュ ーを表示 し、 操作員 が参照 したいデー タ を選択する こ とが出来る。
第 1 1 の機能は、 図 5 3 において動画像表示領域
2 4 0 2 に表示 してあるボイ ラ ーの本体を選択対象と定 義し、 これを選択する と、 その選択対象が選択されたこ とを示すグラ フ ィ ッ ク ス 4 5 0 1 が表示され、 それに関 連する プロセスデー タ 4 5 0 2 から 4 5 0 4 を、 動画像 のそれぞれのデータが関係する と こ ろに重ねて表示する 即ち映像内の選択対象を、 ポイ ンティ ン グデバイ スを用 いて選択する こ とによ り関連するプロセスデータが映像 内の関連する場所に表示される。
第 1 2 の機能は、 図 5 4 においては動画像表示領域 2 4 0 2 に表示してあるボイ ラー内の全体を選択対象と 定義 し、 これを選択する と、 それが選択されたこ とを示 すグラ フ ィ ッ ク ス 4 6 0 1 が表示され、 その選択対象に 関連する温度分布データを呼び出 し、 コ ン ピュ ータ一 グ ラ フ ィ ッ ク ス 4 6 0 2 で映像に重ねて表示する。 映像内 の選択対象を、 ポイ ンテ ィ ン グデバイ スを用いて選択す る こ とによ り その選択対象上に、 プロセスデータをコ ン ピュ ータ ー グラ フ ィ ッ ク スで表示 した ものが重ね られる , 第 1 3 の機能は、 図 5 5 においては動画像表示領域 2 4 0 2 に表示 してある ボイ ラ ー全体を選択対象と定義 し、 これを選択する と、 その選択対象が選択された 二 と を示す グラ フ ィ ッ ク ス 4 7 0 1 が表示さ れ る と と も に、 その選択対象 と関係深い燃料供給部に グ ラ フ ィ ッ ク ス 4 7 0 2 が表示さ れる。 即ち映像内の選択対象を、 ボ イ ン テ ィ ン グデバイ スを用いて選択する こ と に よ り その選 択対象と関連のあ る映像内の選択対象を表示する。
第 1 4 の機能は、 図 5 6 においては動画像表示領域 2 4 0 2 に表示 してあ る ボイ ラ ー全体を選択対象 と定義 し、 こ れを選択する と、 その選択対象が選択 さ れた こ と を示す グラ フ ィ ッ ク ス 4 8 0 1 が表示さ れる と と も に、 その選択対象に関する制御方法、 メ ン テナ ン ス情報等の 付加情報 4 8 0 2 がデー タベー スか ら読みださ れ、 映像 上に表示さ れる。 即ち、 映像内の選択対象を、 ボイ.ンテ ィ ン グデバイ スを用いて選択する こ と によ り その選択対 象の操作法、 制御方法、 メ ン テナ ンス情報等の付加情報 が表示さ れる。
こ の様に、 機能 8 か ら機能 1 4 に よ り 、 プロ セスデー 夕 と映像情報内に映っ ている装置との関連づけが出来、 プロ セスデー タ によ る映像内の関連する装置への参照や 映像内の装置によ る プロ セスデ一 夕への参照ができ る。 こ れに よ り 、 例えば訓練を積んだ操作員でな く て も、 映 像 と デー タ を見る こ と に よ り 装置の簡単な操作、 監視を 行な う こ とが出来る。
次にプロセスデー タ を用 いて映像内に情報を表示する こ とを示す。
第 1 5 の機能は、 図 5 7 においては、 ト レ ン ド グラ フ 2 4 0 3 内のプロ セ スデー タ項目 4 3 0 2 を選択する こ とに よ り 、 そのプロ セスデー タ項目 4 3 0 2 が ヽ ィ ラ イ 卜 する こ と によ り 、 そのプロ セスデー タが選択 さ れた こ とを示 し、 さ らに映像表示領域 2 4 0 2 内にそのプロセ スデ一夕 に関連する選択対象が存在する こ とを示すグラ フ ィ ッ ク ス 4 3 0 1 が表示される。 即ち、 プロセスデー 夕が映像内でどの選択対象と関連があるかを示すグラ フ ィ ッ クスが表示される。
第 1 6 の機能は、 図 5 8 においては、 ト レ ン ドグラ フ 2 4 0 3 内のプロセスデータ項目 4 3 0 2 を選択する こ とによ り、 映像 2 4 0 2 内にそのプロセスデータが関連 する選択対象にプロセスデータ 5 0 0 1 を重ねて ¾示す o
第 1 7 の機能は、 図 5 9 においては、 ト レ ン ドグラ フ 2 4 0 3 内のプロセスデータ項目 4 3 0 2 を選択する こ とによ り、 映像 2 4 0 2 内にそのプロセスデータが関連 する選択対象にプロセスデータをコ ン ピュータ一グラ フ イ ツ ク ス 5 1 0 1 で重ねて表示する。
以上の機能 8 から 1 6 の例に関 しその実現方法を図 6 0 を用いて説明する。 ワ ー ク ステー シ ョ ン 2 1 0 3 内 に監視対象とする制御対象装置 5 2 0 1 の形状モデルを 記録する。 こ の形状モデルの一部を、 操作員からの入力 を受ける選択対象と して定義する。, こ の形状モデルは C A Dモデル等の 3 次元デー タや、 プロ セスの設計図、 あるいは操作員がカ メ ラ 2 1 1 0 からの映.像を見て定義 した単な る矩形領域で も よ い。 こ の選択対象の映像内に おける位置、 大き さ を決定する ために、 I T V カ メ ラ 2 1 1 0 か ら画角情報、 垂直角情報、 水平角情報をデー 夕ベー ス 2 1 0 4 に時刻 と と も に記録する。 あ る いは I T Vカ メ ラ に送る カ メ ラ制御 コ マ ン ド と I T Vカ メ ラ の初期設定か ら画角情報、 垂直角情報、 水平角情報を ヮ ー ク ステー シ ョ ン 2 1 0 3 内の C P U 2 2 0 1 で算出 し . 結果をデー タ ベース 2 1 0 4 に送 り 、 時刻 と と も に記録 する。 I T Vカ メ ラ や制御対象装置は移動 しないので力 メ ラ の初期位置、 記録する カ メ ラ情報、 形状モデルを組 み合わせる こ と によ り 画像内における選択対象の位置、 大き さ を知る こ とが出来る。
プロ セス装置 5 2 0 1 を映す I T Vカ メ ラ 2 1 1 0 は. その垂直角情報 5 2 1 1 、 およ び水平角情報 5 2 1 2 お よ びズーム値を与える こ と に よ り 、 画像 5 2 0 2 か ら 5 2 0 4 を作成する。 こ こ で、 それぞれの画像に映さ れ る装置 5 2 0 1 の像はズーム値によ り 5 2 0 5 、 5 2 0 6 、 5 2 0 7 とな る。 それぞれのズーム値に合わせて計 算機内部の選択対象のスケー リ ン グを行な う 。 こ こ で、 選択領域と して単な る矩形領域を用いた場合には、 画像 5 2 0 2 に対応する選択対象は 5 2 0 8 であ り 、 画像 5 2 0 3 に対 しては 5 2 0 9 、 画像 5 2 0 4 に対 しては 5 2 1 0 であ る。 スケー リ ン グは全て線形であ る ため容 易に行な う こ とが出来る。
こ の よ う に定義 した選択対象に対 し、 操作員か らの選 択があっ た場合や、 他の選択対象からなんらかの メ ッ セ ー ジコマ ン ドが送 られた と き には、 選択対象を表示する 関連デー タを出す等の動作を起動する よ う に定義してお こ の選択対象のデ一夕構造は図 3 6 Gのデータ 2 8 6 0 で示す。 2 8 6 1 、 2 8 6 2 は選択対象の大き さ、 2 8 6 3 、 2 8 6 4 は位置、 2 8 6 5 は操作員に選択さ れた時起動する動作、 あるいは動作テーブルへのポイ ン 夕 一等を入れ、 2 8 6 6 には関連するテキス ト情報等を 入れる。 これによ つて映像内の装置とプロセスデータや 関連情報とを対応づけする こ とが出来る。 また映像内の 装置同士の関連づけを行な う こ と も出来る。 さ らにプロ セスデータや選択対象を単に表示するだけでな く 、 選択 された場合はあ らか じめ定義した命令を実行する こ と も 可能である。
こ の様に、 映像内の装置上にプロセスデータを表示す る こ とが出来、 操作員は視線を動かさずに動画像、 プロ セスデ一夕を見る こ とが出来る。 また、 これをコ ン ビュ 一夕一 グラ フ ィ ッ ク スで表示してやる こ とによ り、 操作 員に直感的なデータ値の判断をさせる。 さ らに、 映像内 における背景等、 随時記録する必要のないものや、 映像 記録時刻の条件を設定する こ とでむだに映像を記録する こ とを回避でき る。 こ う して、 映像、 音声、 プロセスデ — 夕を同期させて再生する こ とによ り、 よ り わかり やす いプロ セスの状況把握と迅速な異常発見が可能になる。 ま た操作員が参照したいプロ セスデー タ を映像上で選択 した り 、 参照 したい映像を直接プロセスデー タ表示部上 で選択する こ とによ り 、 よ り 直接的に操作が可能とな り プロセスの監視性、 操作性、 確実性を高める。 さ らに映 像デー タを用いたプロセスデー タの検索やプロセスデー 夕を用いた映像デー タの検索が実現でき る。
上記 8 から 1 7 の機能は、 記録 している音や映像だけ でな く 、 実時間で入力 している音や映像について も上記 と同 じ実現法で実現でき る。 こ の時、 表示する制御デー 夕は、 実際にその場で採取 しているデー タである。 また 映像の切 り換えは、 I T Vを切 り換えた り、 I T Vを遠 隔制御 してパ ン、 ズームさせて行う。
以上の様に、 本実施例は以下の様な効果がある。
( 1 ) プロセスデータ値設定の際のプレ ビュ ー 操作員がプロセスデー タをある値に設定する際にその プロセスがどのよ う になるかを過去のデー タから映像、 プロセスデー 夕を検索表示する こ とでプレ ビュ 一する こ とができ る。
( 2 ) 運転監視における比較
監視しているプロセスの運転状況を記録してある運転 状況を写 した映像、 音声、 プロセスデー タ と比較する こ とによ り プロセスの状況を把握する こ とができ る。
( 3 ) プロセスデー タ設定値の決定
あるプロセスデ一 夕値を希望する値に設定するために は関連するデー タ値 も設定する必要がある。 こ の よ う に 複数のデー タ値の設定が必要な際、 過去のデー タ及び映 像、 音声を参照する こ とによ り操作員に設定値の決定の 指針を与える こ とができ る。
( 4 ) 異常時点の探索、 分析
異常時点の探索と、 故障箇所の検出を、 過去のプロセ スデータ と映像、 音声との同期再生を用いる こ とによ り よ り有効に行な う こ とができ る。
( 5 ) 教育用 シ ミ ュ レータ
操作員の操作手順の再生によ って教育用 シ ミ ュ レ一タ と して用いる こ とができ る。
なお、 本実施例では、 測定データ と、 映像または音デ —夕 との同期を取るために時間を記録する こ と と したが 、 本発明は、 これに限られる ものではな く 、 例えば、 測 定データ と映像データ等に一連番号を付しておいて、 こ の一連番号をキー と して測定データ と、 映像または音デ 一夕 との同期を取る こ と と しても良い。
なお、 映像デ一 夕 または音データの再生に関 して、 上 記の実施例では、 再生のス ピー ドを破約する こ と または 遅 く する こ とを述べたが、 本発明は、 これに限られる も のでは無 く 、 再生の仕方と して、 静止 (一時停止) をさ せる こ と と して も良い。 こ の時に、 静止のさせ方と して 、 オペ レ ー タの操作による方法または、 アラ ームを記録 しておいて、 ア ラ ームの発生 した時点で停止する こ と と して も良い。 こ の時は、 事故の原因解析を行な う 時等に 事故の発生時点の画面をすばや く 検索する こ とができ る と い う メ リ ッ ト 力 あ る。
さ ら に、 本実施例は、 上記の よ う な I T V カ メ ラ に よ る動画のみを対象 とする も のではな く 、 スチ ー ル 力 メ ラ に よ る静止画を取 り 扱 う こ と も でき る。
上記の様に本実施例に よ り 、 測定デー タ と、 映像ま た は音 と を同期 して再生でき る監視シ ス テ ムを提供でき る

Claims

請求の範囲 ·
1 . 表示手段の画面に表示される少な く と も ひとつの ォブジ ヱ ク ト ( o b j e c t ) の ビデオ映像に関する処 理を行う映像処理装置であって、
該オブジェ ク 卜 に関する情報をス ト アする手段と、 該情報に基づいて該ォブジ ェ ク 卜 に関する処理を行う 手段、 とを備える映像処理装置。
2 . 請求の範囲第 1 項の映像処理装置において、 更に 該ォブジ ェ ク ト についての情報を指定する手段と、 該指定された情報に基づき上記ス ト ァ手段を検索し、 該指定された情報に対応する該ス トァ手段内の情報を得 る手段とを備え、
上記処理を行う手段は、 該得られた情報に基づき該ォ ブジェ ク ト に関する処理を行う。
3 . 請求の範囲第 2 項の映像処理装置において、 上記処理を行う手段は、 該得られた情報に対応するォ ブジェ ク トの映像を上記表示手段に表示する。
4 . 請求の範囲第 2 項の映像処理装置において、 更に . 該ォブジ ェ ク ト についての情報を指定する手段を有し . 上記処理を行う手段は、 該措定されたォブジェ ク 卜 に ついての情報を上記ス ト アする手段から読み出 して上記 表示手段に表示する手段を有する。
5 . 請求の範囲第 2 項の映像処理装置において、 更に . 該ォブジ ェ ク 卜 についての情報を指定する手段を有し . 上記処理を行う手段は、 該指定されたォブジ ェ ク ト に ついて の情報 と して実行可能な処理の一覧を上記ス ト ァ する手段か ら読み出 して上記表示手段に表示する手段を 有する。
6 . 請求の範囲第 1 項か ら第 5 項のいずれかの映像処 理装置におて、 更に
テキス ト 又は図形を入力する こ とで探索キーを指定す る手段を有 し、
上記処理を行う手段は、 該指定された探索キーに対応 する上記ォブジ ェ ク 卜 についての情報を上記ス ト ァする 手段か ら読み出 して上記表示手段に表示する手段を有す o
7 . 請求の範囲第 6 項の映像処理装置において、 上記処理を行う手段は、 異なるオブジェ ク ト をそれぞ れ映す複数のカ メ ラの映像の う ち、 該得られた情報に対 応する カ メ ラの映像を上記表示手段に表示する。
8 . 請求の範囲第 1 項の映像処理装置において、 更に 上記表示手段に表示されたオブジ ェ ク トの映像の領域 を指定する手段と、
該措定された領域に対応する該ォブジ ェ ク 卜の処理を 定義する手段を有する。
9 . 少な く と も一つのオブジ ェ ク ト ( o b j e c t ) の ビデオ映像を表示手段の画面に表示する映像処理装置 であ って、
該オブジ ェ ク 卜 に関する情報をス ト ァする手段と、 該情報に基づいて該ォブジ ヱ ク 卜 に関する グラ フ ィ ッ ク スを上記表示手段に表示する手段とを有する映像処理 装置。
1 0 . 請求の範囲第 9 項の映像処理装置において、 更 該ォブジ ヱ ク ト についての情報を指定する手段と、 該指定された情報に基づき上記ス ト ァ手段を検索し、 該指定された情報に対応する該ス トァ手段内の情報を得 る手段とを備え、
上記表示する手段は、 該得られた情報に基づき該ォブ ジ X ク ト に関する グラ フ ィ ッ ク スを上記表示手段に表示 する。
1 1 . 請求の範囲第 9 項の映像処理装置において、 更 に、
該画面に表示されたグラ フ ィ ッ ク スを介して該ォブジ 二 ク トを操作する手段を有する。
1 2 . 表示手段の画面に表示される少な く と も一つの ォブジェ ク ト ( o b j e c t ) の ビデオ映像に関する処 理を行う映像処理装置であって、
該ォブジ ェ ク 卜 に関する位置情報をス ト アする手段と . 該位置情報に基づいて、 上記画面上のォブジ ェ ク トを 同定する手段と、
該同定されたォブジ ェ ク 卜 に基づいて処理を行う手段 とを有する映像処理装置。
1 3 . 請求の範囲第 1 2 項の映像処理装置において、 上記同定手段は、 上記画面上の映像を指定する手段と、
該指定さ れた映像の位置情報に基づき上記ス ト ァ手段 を検索 し、 該指定さ れた映像の位置情報に対応する該ス ト ァ手段内の位置情報を得る手段と、
該得られた位置情報に基づき上記画面上のオブジ ェ ク トを同定する手段を有する。
1 4 . 請求の範囲第 1 3 項の映像処理装置において、 上記処理を行う手段は、 該同定されたオブジ ェ ク 卜 に 基づいて対応する グラ フ ィ ッ ク スを上記画面に表示する ,
1 5 . 請求の範囲第 1 3 項の映像処理装置において、 上記処理を行う手段は、 該同定されたオブジ ェ ク ト に 基づいて対応する該ォブジ ェ ク ト の映像を上記画面.に表 示する。
1 6 . 請求の範囲第 1 3 項の映像処理装置において、 上記処理を行う手段は、 該同定されたォブジ ェ ク 卜 に 基づいて対応する該ォブジ ェ ク 卜の操作を行う 。
1 7 . 表示手段の.画面に表示される少な く と もひとつ のォブジ ェ ク ト ( o b j e c t ) の ビデオ映像に関する 処理を行う映像処理方法であって、
該ォブジ ェ ク 卜 に関する情報をス ト アするステ ッ プと 該情報に基づいて該ォブジ ェ ク ト に関する処理を行う ステ ッ プ、 とを備える映像処理方法。
1 8 . 少な く と も一つのオブジ ェ ク ト ( o b j e c t ) の ビデオ映像を表示手段の画面に表示する映像処理 方法であ って、 該ォマ ジ ヱ ク 卜 に関する情報をス I、 了する ス千 ツ プ と 該情報に基ついて該ォブ ジ ヱ ク 卜 に関する ク" つ ィ ッ ク ス を上記表示手段に表示する ス テ ·:' プとを有する映像 処理方法。
1 9 . 表示手段の画面に表示さ れ る少な く と も 一つの オブ ジ ェ ク 卜 ( 0 b j e c t ) の ビデオ映像に関する処 理を行 う 映像処理方法であ っ て、
該ォブジ ヱ ク 卜 に関する位置情報をス ト アする ステ ツ プ と、
該位置情報に基づいて、 上記画面上のオブジ ェ ク ト を 同定する ステ ッ プ と、
該同定さ れたォブジ ェ ク ト に基づいて処理を行う. ステ ッ プ、 とを有する映像処理方法。 ·
2 0 . 表示手段の画面に表示さ れる少な く と も一つの オブ ジ ェ ク ト の ビデオ映像を操作する映像操作方法にお いて、
ビデオ映像内のオブジ ェ ク ト を指定するォブジ ェ ク ト 措定ス テ ッ プと、
指定さ れたォブ ジ ェ ク ト に対応する処理を実行する処 理実行ステ ッ プと を有する映像操作方法。
2 1 . 請求の範囲第 2 0 項の映像操作方法において、 上記オブ ジ ェ ク ト 指定ステ ッ プが、 ビデオカ メ ラ か ら 入力 さ れて上記画面に表示さ れている映像のオブ ジ ェ ク ト を指定する ステ ッ プを含む映像操作方法。
2 2 . 請求の範囲第 2 0 項又は第 2 1 項の映像操作方 ;'去において、
上記処理実行 ス モ '·' つ。か、 指定さ れたす一'' ジ X ク ト に 基づいて ヒ デす映像を変更す る処理を実行-する ス チ V マ を含む映像操作方法。
2 3 . 請求の範囲第 2 1 項の映像操作方法において、 上記処理実行ス テ ッ プが、 指定さ れたォブ ジ ェ ク 卜 に 基づいて ビデオ 力 メ ラ を操作する処理を実行す る ス テ ッ プを含む映像操作方法 o
2 4 . 請求の範囲第 2 1 項の映像操作方法において、 上記処理実行ステ ツ プが、 指定さ れたオブ ジ ェ ク ト を 操作する処理を実行する ステ ッ プを含む映像操作方法。
2 5 . 請求の範囲第 2 0 項又は第 2 1 項の映像操作方 法において、
上記処理実行ス テ ッ プが、 指定さ れたォブジ ェ ク 卜 に 対応する グラ フ ィ ッ ク スを前記映像上に合成表示 し、 ど のオブ ジ ェ ク 卜 か指定さ れたかを明示する ステ ッ プを含 む映像操作方法。
2 6 . 請求の範囲第 2 0 項又は第 2 1 項の映像操作方 法において、
上記処理実行ス テ ツ プは、 指定さ れたォブ ジ ェ ク ト に 対応する実行可能な処理の一覧を メ ニ ュ ー表示 し、 実行 すべき 処理を選択でき う る ス テ ッ プを 含む映像操作方法 2 7 . 請求の範囲第 2 0 項又は第 2 1 項の映像操作方
(·_ しヽ 、
上記処理実行ス 干 プ け 08 指定されたすブジ ェ ク 卜 に対応する グ フ ィ ッ ク スを !JtJ記 ビデオ映像上に合成表示する グ つ ィ ッ ク ス表示 ス モ ッ プ と 、 .
グ ラ フ ィ ッ ク ス の構成要素を選択する グ ラ フ ィ ッ ク ス 要素選択ステ ッ プと、
前記グラ フ ィ ッ ク ス要素選択ステ ッ プによ って選択さ れた構成要素に基づいた処理を実行する実行ステ ッ プと を有する映像操作方法。
2 8 . 請求の範囲第 2 0 項又は第 2 1 項の映像操作方 法において、
上記オブジ ェ ク ト指定ステ ッ プは、 映像内の指定可能 なォブジ ェ ク ト を明示するォブジェ ク ト明示ステ ッ プを 有する映像操作方法。
2 9 . 請求の範囲第 2 0 項又は第 2 1 項の映像操作方 法において、
上記処理実行ステ ッ プは、 上記指定されたォブジ ェ ク ト に関連する情報を表示する処理を実行するス テ ッ プを 含む映像操作方法。
3 0 . 少な く と も一つのオブジェ ク トの ビデオ映像を 画面に表示する表示手段と、 '
該表示手段の画面に表示される ビデオ映像内のォブジ エ タ 卜 を指定するォブジ ェ ク ト指定手段と、
指定されたォブジ ェ ク 卜 に対応する処理を実行する処 理実行手段とを有する映像操作装置。
3 1 . ビデオ映像を探索し、 表示する映像探索方法に しヽ し 、
チキ ス ト ま た は図 形を人力 し て探索キ一を指定する探 索キー指定ス チ ッ プ と 、
前記探索キー指定 ステ ッ プに よ て措定さ れた探索キ 一 に適合す る事物か表示さ れてい る ビデオ映像を表示す る映像探索ステ ッ プ とを有する映像探索方法。
3 2 . 請求の範囲第 3 1 項の映像探索方法において、 上記映像探索ステ ッ プが、 上記探索キー に基づいて ビ デォカ メ ラ を選択する ステ ッ プを有す る映像探索方法。
3 3 . 請求の範囲第 3 1 項又は第 3 2 項の映像探索方 法において、
上記映像探索ステ ッ プが、 探索キー に基づいて ビデオ 力 メ ラ を操作する ステ ッ プを有する映像探索方法。
3 4 . 請求の範囲第 3 1 項か ら第 3 3 項のいずれかの 映像探索方法において、
上記映像探索ステ ッ プが、 探索 した映像上に グ フ ィ ッ ク スを合成表示する こ と によ り 、 探索キー に適合する 事物を明示する ステ ッ プを有する映像探索方法。
3 5 . 請求の範囲第 3 1 項か ら第 3 4 項ま でのいずれ かの映像探索方法において、
上記探索キー入力 ステ ッ プか、 音声に よ っ て探索キー を入力する ステ ッ プを有する映像探索方法。
3 6 . ビデオ映像を探索 し、 表示する映像探索装置に おいて、
テキス ト ま たは図形を入力 し て探索キーを指定する探 索キ一指定手段と、
H'J記探索キー指定手段によ て指定された探索キーに 適合する事物が表示されている ビデオ映像を表示する映 像探索手段とを有する映像探索装置。
3 7 . 映像を表示手段の画面上に表示する映像表示ス テ ッ プと、
上記映像表示ス テ ッ プによ って表示された映像の領域 を指定する領域指定ステ ツ プと、
上記領域指定ステ ッ プによ って指定された領域に対応
1 0 して処理を定義する処理定義ステ ッ プと、 を有する映像 処理 ¾ ¾法。
3 8 . 映像を画面上に表示する表示手段と、
上 示された映像の領域を指定す る領域指定手段と、
1 5 上記領域指定手段によ つて指定された領域に対応 して 処理を定義する処理定義手段と、 を有する映像処理定義
3 9 . 被制御物となるオブジ ェ ク トを撮像する入カス テ ッ プと、
2 0 該撮像されたオブジ ェ ク トを表示する表示ステ ッ プと
主求の範囲第 2 0 項から第 2 9 項までのいずれかに記 載される映像操作方法とを具備する遠隔運転監視方法。
4 0 . 被制御物となるォブジ X ク トを撮像する ビデオ 力 i ラ と、
r ϋ. 該ビデオ力 によ って撮像されたオブジ ェ ク 卜 を表 示する 表示手段 と 、
請求の 囲第 0 項に記載さ れ る映像操作装置 と を具 備する遠隔運転監視装置。
4 1 . 被制御物 と 、
該被制御物を撮像する ビデす 力 メ ラ と 、
該 ビデオ 力 メ に よ っ て撮像 さ れた被制御物を表示す る表示手段 と、
該表示手段に表示さ れ る被制御物を画面上で指定する 指定手段 と、
該画面上で措定さ れた被制御物に対応する所望の処理 を実行する実行手段 とを具備す る遠隔運転監視装置。
4 2 . 被制御物 と、
該被制御物を撮像する ビデオ力 メ ラ と、
該 ビデオ 力 メ ラ に よ っ て撮像さ れた被制御物を表示す る表示手段 と、
該表示手段に表示さ れ る被制御物を画面上で指定する 指定手段 と、
該画面上で指定さ れた被制御物に対応する所望の処理 を定義する定義手段 と、
該画面上で指定さ れた被制御物に対応する上記所望の 処理を実行する実行手段 と を具備する遠隔運転監視装置 4 3 . 対象物に関する制御のためのデー タ (以下制御 デー タ と称す) を記憶する と共に、 該対象物に関する音 ま たは映像のデー タ を記憶する情報処理装置において、 制御千'一 ク と 音 又 は映像千'一 々 を関連づ る手段 と 、 該関連づける手段に基づいて、 制御デー タ と音又は映 像デ一 々 とを関連づけて出力する手段と、 を備える情報 処理装置。
4 4 . 請求の範囲第 4 3 項の情報処理装置において、 更に、
上記制御デー タを再生する第 1 の再生手段と、 上記音データ 又は映像データのう ち少な く と も一方を 再生する第 2 の再生手段と、 を備え、
上記関連づける手段は、 上記制御デー タ と上記音又は0 映像デー タ を関連づける情報をス ト ァする手段を有 し、 上記出力手段は、 上記再生された測定デ一 夕を出力す る第 1 の出力手段と、 ■
上記再生された音データ又は映像データを出力する第 2 の出力手段と、
5 上記出力される制御データ と映像又は音データ とを上 記関連づける情報によ り 同期 して出力する よ う上記第 1 第 2 出力手段を制御する同期手段と、 を有する情報処理 装置。
4 5 . 請求の範囲第 4 4 項の情報処理装置において、0 上記第 2 の再生手段は、
上記音デー タ及び映像デー タのう ち少な く と も一方の 再生方向ま たは再生速度を指定する手段と、
指定された再生方向、 再生速度で再生する手段、 とを 有する情報処理装置。
J 4 6 . 請求の範囲第 4 4 項の情報処理装置において、 更に、
出力すべき制御デ一 とその時刻を指定する手段を冇 し 、
上記同期手段は、 出力指定さ れた制御デー タが記録さ れた時点に最 も近い時点の映像ま たは音デー タ を出力す る よ う に上記第 1 の出力手段に対 して指示する情報処理
4 7 . 請求の範囲第 4 6 項の情報処理装置において、 上記指定手段は、 制御デー タの探索値を受付ける手段 を有 し、
上記同期手段は、 指定 した制御デ一 夕がその探索値を 取っ た時刻を探索する手段を有 し、
上記第 1 の出力手段は、 その時刻 と、 その時刻のデー 夕値を出力する手段を有する情報処理装置。
4 8 . 請求の範囲第 4 5 項か ら 4 7 項のいずれかの情 報処理装置において、
上記同期手段は、 映像または音デー タの再生速度にあ わせて制御デー タの表示頻度を決定する手段と、
映像ま たは音デー タの再生に同期 して、 制御デー タを 決定 した表示頻度で表示する手段とを有する情報処理装
4 9 . 請求の範囲第 4 6 項か ら第 4 8 項のいずれかの 情報処理装置において、
上記指定手段は、 制御デー タ の表示頻度を受付ける手 段を有 し、 上記第 1 の出力手段は、 指定された表示頻度に従 て 制御デ一 々を表示する手段を有 し、
上記同期手段は、 指定 した表示頻度から再生速度を決 定する手段を有 し、
上記第 1 の出力手段は、 決定 した速度で映像、 音デー 夕を出力する手段を有する、 情報処理装置。
5 0 . 請求の範囲第 4 4 項の情報処理装置において、 更に、
操作員の操作入力情報を記憶する第 3 の記憶手段を有 し、
上記出力手段は、 映像、 ま たは音データの再生に同期 して操作員の操作入力情報を出力する第 3 の出力手段と を有する情報処理装置。
5 1 . 請求の範囲第 5 0 項の情報処理装置において、 更に、
操作入力情報の指定を受付ける手段を有 し、
上記同期手段は、 措定した操作が入力 した時刻 と、 そ の時刻に最も近い映像、 音データを探索する手段と、 第 2 の出力手段が映像又は音デー タを再生するのに同 期 して、 第 3 の出力手段が操作入力情報を出力する よ う 制御する手段とを有する、 情報処理装置。
5 2 . 請求の範囲第 4 4 項の情報処理装置において、 更に、
画像内における記録対象の指定と、 どの時点で記録す るかを定める記録条件の指定と、 得られた画像デー タ の 記録方式の指定の少な '、 と も 1 つの指定を受付ける手段 を有 し 、
上記同期手段は、 記錄対象の指定、 記録条件の指定、 記録方式の指定の少な く と も 1 つの指定によ り 上記音又 は映像デー タの読み出 しを制御する情報処理装置。
5 3 . 監視対象物の音又は映像のデー タを処理する監 視装置において、
制御システムを制御する制御のためのデー タ (以下制 御デー タ と称す) と音又は映像デー タ とを関連づける手 段と、
映像上で監視対象物を選択する手段と、
制御デー タ を出力する第 1 の出力手段と、
音又は映像デー タを出力する第 2 の出力手段と、 上記選択された監視対象物に関連する制御デー タ を出 力する よ う 上記第 1 の出力手段を制御する手段と、 を備 える監視装置。
5 4 . 請求の範囲第 5 3 項の監視装置において、 上記関連付ける手段は、 監視対象物に関する情報 と、 該監視対象物 と制御デー タ とを関連付けるための情報と を記憶している記憶手段を有し、
上記制御手段は、 記憶されている上記監視対象物に関 する情報 と関連付けるための情報 とによ り 、 選択された 監視対象物に関連する制御デー タを選択する手段と、 該選択された制御デー タを上記第 1 の出力手段によ り 表示させる手段とを有する、 監視装置。
5 5 . 請求の範囲第 5 4 項の監視装置において、 選択 された監視対象物に関連する制御デー 夕が複数個ある場
. (一
上記第 2 の出力手段は、 選択された監視対象物と共に その近傍に関連する制御デー タの選択 メ ニュ ーを表示す る手段と、
上記選択メ ニュ ーから少な く と も一つの項目の指定を 受付ける手段と、
該受付けた項目 に対応する制御デー タを表示する手段 とを有する、 監視装置。
5 6 . 請求の範囲第 5 4 項の監視装置において、 上記第 2 の出力手段は、 選択された監視対象物に関連 する制御デー タを ト レ ン ドグラ フ内に表示する手段を有 する監視装置。 .
5 7 . 請求の範囲第 5 4 項の監視装置において、 上記第 2 の出力手段は、 選択された監視対象物と共に、 それに関連する少な く と も 1 つの制御デー タを該対象物 の近傍に、 表示する手段を有する監視装置。
5 8 . 請求の範囲第 5 4 項の監視装置において、 上記第 2 の出力手段は、 選択された監視対象物に関連 する制御デー タをグラ フ ィ ッ ク スで表現し、 該選択され た監視対象物の映像に重ねて表示する手段を有する監視 装置。
5 9 . 請求の範囲第 5 3 項の監視装置において、 上記関連付ける手段は、 監視対象物に関する情報と、 該監視対象物と関連のある監視対象物 とを関連付けるた めの情報 とを記憶 している記憶手段を有 し、
上記制御手段は、. 記憶されている監視対象物に関する 情報 と関連付けるための情報 とによ り、 選択された監視 対象物に関連する監視対象物を選択する手段を有 し、 上記第 2 の出力手段は、 映像上に該選択された監視対 象物が選択されたこ とを示 し、 該選択された監視対象物 に関連する上記選択された監視対象物を表示する手段を 有する監視装置。
6 0 . 請求の範囲第 5 3 項の監視装置において、 上記関連付ける手段は、 監視対象物に関する情報と、 該監視対象物と関連のある付加情報とを関連付けるため の情報とを記憶している記憶手段を有し、
上記制御手段は、 記憶されている監視対象物に関する 情報と関連付けるための情報とによ り、 選択された監視 対象物に関連する付加情報を選択 し、
上記第 2 の出力手段は、 映像上に該選択された監視対 象物が選択された こ とを示 し、 該選択された監視対象物 に関連する上記選択された付加情報を表示する手段を有 する監視装置。
6 1 . 監視対象物の音又は映像のデー タを処理する監 視装置において、
制御システムを制御する制御のためのデー タ (制御デ — 夕) と音又は映像デー タ とを関連づける手段と、
少な く と も 1 つの制御デー タ を選択する手段と、 制御デー タ を出力する第 i の出力手段と、
音又は映像デー タ を出力する第 2 の出力手段と、 上記選択された制御デー タ に関連する音又は映像デー タを出力する よ う上記第 1 の出力手段を制御する手段と を備える監視装置。
6 2 . 請求の範囲第 6 1 項の監視装置において、 上記関連付ける手段は、 監視対象物と制御データ とを 関連付けるための情報を記憶する手段を有し、
上記制御手段は、 上記情報に基づき、 上記選択された 制御デー タ に関連する監視対象物を選択する手段を有し 上記第 2 の出力手段は、 該選択された監視対象物を表 示する手段を有する監視装置。
6 3 . 請求の範囲第 6 2 項の監視装置において、 上記第 2 の出力手段は、 ト レ ン ドグラ フ内に制御デ一 夕を表示し、
表示されたデータ項目を選択する手段と、
該制御データに関連する監視対象物が映像内で選択さ れた こ とを示す表示を行な う手段、 とを有する監視装置 6 4 . 請求の範囲第 6 2 項の監視装置において、 上記第 2 の出力手段は、 ト レ ン ドグラ フ内に制御デ一 タを表示 し、
表示されたデー タ項目 を選択する手段を有し、 上記制御手段は、 該制御データ に関連する監視対象物 が映像内にない場合には、 関連する監視対象物が存在す る映像に切 り替える手段を有し、 上記第 2 の出力手段は、 該制御デー タ に関連する監視 対象物が映像内で選択された こ とを示す表示を行な う監 視装置。
PCT/JP1992/000434 1991-04-08 1992-04-08 Method and apparatus for image or data processing, and monitoring method and apparatus using the same WO1992017875A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE4290947A DE4290947B4 (de) 1991-04-08 1992-04-08 Interaktives videogestütztes Bedienungsverfahren und -vorrichtung
KR1019997005176A KR100257593B1 (en) 1991-04-08 1999-06-10 An interactive live video image operating apparatus and operating method and video image developing apparatus
US09/845,838 US6965376B2 (en) 1991-04-08 2001-05-01 Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP3/74927 1991-04-08
JP07492791A JP3375644B2 (ja) 1991-04-08 1991-04-08 処理の実行方法およびバルブ遠隔操作方法
JP3238277A JP2970964B2 (ja) 1991-09-18 1991-09-18 監視装置
JP3/238277 1991-09-18

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US96044292A A-371-Of-International 1991-04-08 1992-12-08
US08/328,566 Continuation US6335722B1 (en) 1991-04-08 1994-10-24 Video or information processing method and processing apparatus, and monitoring method and monitoring apparatus using the same

Publications (1)

Publication Number Publication Date
WO1992017875A1 true WO1992017875A1 (en) 1992-10-15

Family

ID=26416094

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1992/000434 WO1992017875A1 (en) 1991-04-08 1992-04-08 Method and apparatus for image or data processing, and monitoring method and apparatus using the same

Country Status (4)

Country Link
US (3) US6335722B1 (ja)
KR (2) KR100318330B1 (ja)
DE (2) DE4290947B4 (ja)
WO (1) WO1992017875A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004006581A1 (en) * 2002-07-05 2004-01-15 Deok-Woo Kim Image information management system to provide independent images for each user

Families Citing this family (283)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6239794B1 (en) 1994-08-31 2001-05-29 E Guide, Inc. Method and system for simultaneously displaying a television program and information about the program
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US20050204384A1 (en) * 1994-08-31 2005-09-15 Gemstar Development Corporation Method and apparatus for displaying television programs and related text
US6769128B1 (en) 1995-06-07 2004-07-27 United Video Properties, Inc. Electronic television program guide schedule system and method with data feed access
US8482534B2 (en) * 1995-06-29 2013-07-09 Timothy R. Pryor Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US8228305B2 (en) 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
US6469753B1 (en) 1996-05-03 2002-10-22 Starsight Telecast, Inc. Information system
US8635649B2 (en) 1996-12-19 2014-01-21 Gemstar Development Corporation System and method for modifying advertisement responsive to EPG information
US6654060B1 (en) * 1997-01-07 2003-11-25 Canon Kabushiki Kaisha Video-image control apparatus and method and storage medium
JP4072233B2 (ja) * 1997-03-24 2008-04-09 キヤノン株式会社 情報処理装置
JP3918228B2 (ja) * 1997-05-13 2007-05-23 株式会社ニコン 情報処理装置および記録媒体
JPH114376A (ja) * 1997-06-13 1999-01-06 Olympus Optical Co Ltd 電子的撮像装置
MX340336B (es) 1997-07-21 2016-07-06 Gemstar Dev Corp Metodo para navegar a traves de una guia de programas de television.
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US20020095676A1 (en) 1998-05-15 2002-07-18 Robert A. Knee Interactive television program guide system for determining user values for demographic categories
JPH11355617A (ja) * 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6898762B2 (en) 1998-08-21 2005-05-24 United Video Properties, Inc. Client-server electronic program guide
JP3902904B2 (ja) 1999-03-23 2007-04-11 キヤノン株式会社 情報提示装置、方法、カメラ制御装置、方法及びコンピュータ読み取り可能な記憶媒体
JP4878409B2 (ja) * 1999-03-23 2012-02-15 キヤノン株式会社 情報制御装置及び情報制御方法及び記憶媒体
AU5775900A (en) 1999-06-29 2001-01-31 United Video Properties, Inc. Method and system for a video-on-demand-related interactive display within an interactive television application
US6516041B1 (en) * 1999-10-07 2003-02-04 Westinghouse Electric Co. Llc Method and apparatus to eliminate confirmation switches and channel demultiplexer from soft control man-machine interface (MMI)
US8482535B2 (en) 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP2001157154A (ja) * 1999-11-26 2001-06-08 Sony Corp 記録又は再生装置、及び再生装置
US20020138842A1 (en) * 1999-12-17 2002-09-26 Chong James I. Interactive multimedia video distribution system
US8576199B1 (en) 2000-02-22 2013-11-05 Apple Inc. Computer control systems
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
KR20030031471A (ko) 2000-03-31 2003-04-21 유나이티드 비디오 프로퍼티즈, 인크. 메타데이터 연계 광고용 시스템 및 방법
US7055095B1 (en) * 2000-04-14 2006-05-30 Picsel Research Limited Systems and methods for digital document processing
US7576730B2 (en) 2000-04-14 2009-08-18 Picsel (Research) Limited User interface systems and methods for viewing and manipulating digital documents
US7450114B2 (en) * 2000-04-14 2008-11-11 Picsel (Research) Limited User interface systems and methods for manipulating and viewing digital documents
US6731305B1 (en) * 2000-07-17 2004-05-04 Imove, Inc. Camera system which records camera identification in image file
JP4612779B2 (ja) * 2001-06-14 2011-01-12 キヤノン株式会社 通信装置及び通信装置の映像表示制御方法
US20030027624A1 (en) 2001-08-03 2003-02-06 Gilmore Jason C. Hybrid slot machine
US9778794B2 (en) 2001-11-02 2017-10-03 Neonode Inc. Light-based touch screen
US8095879B2 (en) * 2002-12-10 2012-01-10 Neonode Inc. User interface for mobile handheld computer unit
US9052777B2 (en) 2001-11-02 2015-06-09 Neonode Inc. Optical elements with alternating reflective lens facets
US8674966B2 (en) 2001-11-02 2014-03-18 Neonode Inc. ASIC controller for light-based touch screen
US6965383B2 (en) * 2001-12-11 2005-11-15 Lecroy Corporation Scaling persistence data with interpolation
CN100380918C (zh) * 2002-02-19 2008-04-09 夏普株式会社 显示装置以及电子设备
JP3847641B2 (ja) * 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
JP4086529B2 (ja) * 2002-04-08 2008-05-14 松下電器産業株式会社 画像処理装置及び画像処理方法
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
US7358963B2 (en) 2002-09-09 2008-04-15 Apple Inc. Mouse having an optically-based scrolling feature
US10499091B2 (en) 2002-09-17 2019-12-03 Kinya Washino High-quality, reduced data rate streaming video production and monitoring system
US8416217B1 (en) 2002-11-04 2013-04-09 Neonode Inc. Light-based finger gesture user interface
DE10260305A1 (de) * 2002-12-20 2004-07-15 Siemens Ag HMI Einrichtung mit einem optischem Touch Screen
JP2004304560A (ja) * 2003-03-31 2004-10-28 Fujitsu Ltd 電子装置
US20040201602A1 (en) * 2003-04-14 2004-10-14 Invensys Systems, Inc. Tablet computer system for industrial process design, supervisory control, and data management
DE10359868B3 (de) * 2003-12-18 2005-06-16 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zur Erkennung von sich hinter einem Flugzeug bildendem/n Kondensstreifen sowie Einrichtung zur Durchführung des Verfahrens
DE10361708A1 (de) * 2003-12-30 2005-08-04 Airbus Deutschland Gmbh Einrichtung zur Unterstützung bei der Überwachung eines Luftauslassventils in einem Flugzeug
JP4049115B2 (ja) 2004-03-15 2008-02-20 セイコーエプソン株式会社 プロジェクタ
TWI236239B (en) * 2004-05-25 2005-07-11 Elan Microelectronics Corp Remote controller
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7719523B2 (en) 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US7724242B2 (en) * 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US20100231506A1 (en) * 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
DE102004044673B4 (de) * 2004-09-08 2007-04-05 Siemens Ag Verfahren zum Überwachen zumindest einer Anlagenkomponente einer technischen Anlage
DE102005061211B4 (de) 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US20070260429A1 (en) * 2005-02-23 2007-11-08 Prospect S.A. (A Chilean Corporation) Method and apparatus for monitoring
JP2006276903A (ja) * 2005-03-25 2006-10-12 Fuji Xerox Co Ltd 文書処理装置
DE102006014634B4 (de) * 2005-04-01 2014-01-30 Abb Research Ltd. Mensch-Maschine-Schnittstelle für ein Kontroll- bzw. Steuerungs-System
JP2007031102A (ja) * 2005-07-28 2007-02-08 Mitsubishi Heavy Ind Ltd クレーン装置の遠隔操作装置及びクレーン装置並びにクレーン装置の遠隔操作システム
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
KR100792295B1 (ko) * 2005-12-29 2008-01-07 삼성전자주식회사 컨텐츠 네비게이션 방법 및 그 컨텐츠 네비게이션 장치
US20070188473A1 (en) * 2006-02-14 2007-08-16 Picsel Research Limited System and methods for document navigation
US7657526B2 (en) 2006-03-06 2010-02-02 Veveo, Inc. Methods and systems for selecting and presenting content based on activity level spikes associated with the content
US8316394B2 (en) 2006-03-24 2012-11-20 United Video Properties, Inc. Interactive media guidance application with intelligent navigation and display features
US7996792B2 (en) 2006-09-06 2011-08-09 Apple Inc. Voicemail manager for portable multifunction device
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8832742B2 (en) 2006-10-06 2014-09-09 United Video Properties, Inc. Systems and methods for acquiring, categorizing and delivering media in interactive media guidance applications
US8265781B2 (en) * 2006-10-24 2012-09-11 Krones Ag Monitoring unit for a device for manipulating containers
US7801888B2 (en) 2007-03-09 2010-09-21 Microsoft Corporation Media content search results ranked by popularity
EP1975752B1 (en) * 2007-03-30 2010-07-07 Abb Research Ltd. A method for operating remotely controlled cameras in an industrial process
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN101939765B (zh) * 2007-12-10 2014-01-29 Abb研究有限公司 用于远程检查工业过程的由计算机实施的方法和系统
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8405621B2 (en) * 2008-01-06 2013-03-26 Apple Inc. Variable rate media playback methods for electronic devices with touch interfaces
US8117889B2 (en) * 2008-02-13 2012-02-21 Kabushiki Kaisha Toshiba Inspection system for pressure transmitting device of plant
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8484355B1 (en) * 2008-05-20 2013-07-09 Verizon Patent And Licensing Inc. System and method for customer provisioning in a utility computing platform
US8473615B1 (en) 2008-05-20 2013-06-25 Verizon Patent And Licensing Inc. System and method for customer provisioning in a utility computing platform
WO2009141855A1 (ja) * 2008-05-23 2009-11-26 新世代株式会社 入力システム、入力方法、コンピュータプログラム、及び、記録媒体
EP2283413B1 (en) * 2008-05-27 2019-02-20 ABB Research Ltd. Work station in a process control system
US20100001978A1 (en) * 2008-07-02 2010-01-07 Stephen Brian Lynch Ambient light interference reduction for optical input devices
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
CN102105843B (zh) 2008-08-06 2013-12-18 三菱电机株式会社 工厂监视控制系统
WO2010041960A1 (en) * 2008-10-06 2010-04-15 Institutt For Energiteknikk Improved plant process display
WO2010041358A1 (ja) * 2008-10-08 2010-04-15 株式会社ソニー・コンピュータエンタテインメント ゲーム制御プログラム、ゲーム装置、及びゲーム制御方法
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
JP5491043B2 (ja) * 2009-02-25 2014-05-14 京セラ株式会社 生体認証機能付きデータ処理装置
US8839155B2 (en) * 2009-03-16 2014-09-16 Apple Inc. Accelerated scrolling for a multifunction device
US8689128B2 (en) * 2009-03-16 2014-04-01 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US9042708B2 (en) * 2009-03-31 2015-05-26 Fisher-Rosemount Systems, Inc. Digital video recording and playback of user displays in a process control system
KR101545736B1 (ko) * 2009-05-04 2015-08-19 삼성전자주식회사 휴대용 단말기에서 3차원 컨텐츠를 생성하기 위한 장치 및 방법
TWI452488B (zh) * 2009-05-18 2014-09-11 Pixart Imaging Inc 應用於感測系統的控制方法
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US9690599B2 (en) * 2009-07-09 2017-06-27 Nokia Technologies Oy Method and apparatus for determining an active input area
US9166714B2 (en) 2009-09-11 2015-10-20 Veveo, Inc. Method of and system for presenting enriched video viewing analytics
US8624933B2 (en) 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
US20110087988A1 (en) * 2009-10-12 2011-04-14 Johnson Controls Technology Company Graphical control elements for building management systems
US9030555B2 (en) * 2009-11-25 2015-05-12 Lg Electronics Inc. Surveillance system
WO2011079208A1 (en) * 2009-12-24 2011-06-30 Flir Systems, Inc. Cameras with on-board reporting capabilities
US20110163967A1 (en) * 2010-01-06 2011-07-07 Imran Chaudhri Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document
US8539369B2 (en) * 2010-01-06 2013-09-17 La Crosse Technology, Ltd. Central monitoring and measurement system
EP2523081B1 (en) * 2010-01-06 2019-09-18 Huawei Device Co., Ltd. Method and terminal for displaying picture/interface
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
US20110199386A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US8638371B2 (en) * 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
SG182514A1 (en) * 2010-03-30 2012-08-30 Ns Solutions Corp Information processing apparatus, information processing method, and program
USD803227S1 (en) * 2010-10-08 2017-11-21 Oath (Americas) Inc. Display apparatus including a computer generated icon
US8589242B2 (en) 2010-12-20 2013-11-19 Target Brands, Inc. Retail interface
US8606643B2 (en) 2010-12-20 2013-12-10 Target Brands, Inc. Linking a retail user profile to a social network user profile
US8972895B2 (en) 2010-12-20 2015-03-03 Target Brands Inc. Actively and passively customizable navigation bars
US8630913B1 (en) 2010-12-20 2014-01-14 Target Brands, Inc. Online registry splash page
US8606652B2 (en) 2010-12-20 2013-12-10 Target Brands, Inc. Topical page layout
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9736524B2 (en) 2011-01-06 2017-08-15 Veveo, Inc. Methods of and systems for content search based on environment sampling
US8756121B2 (en) 2011-01-21 2014-06-17 Target Brands, Inc. Retail website user interface
US20120191223A1 (en) * 2011-01-25 2012-07-26 Honeywell International Inc. System and method for automatically selecting sensors
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US8836802B2 (en) 2011-03-21 2014-09-16 Honeywell International Inc. Method of defining camera scan movements using gestures
KR101199290B1 (ko) * 2011-03-31 2012-11-09 전자부품연구원 증강현실을 이용한 플랜트 관리 방법 및 시스템
TWI433568B (zh) * 2011-05-05 2014-04-01 Univ Nat Taiwan Science Tech 人境互動系統與應用其之可攜式裝置
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
RS20110272A3 (en) * 2011-06-22 2013-06-28 Jentsch, Klaus Dieter DEVICE AND PROCEDURE FOR REMOTE DIAGNOSTICS AND CONTROL OF AUTOMATED TECHNICAL DEVICES
US8965788B2 (en) 2011-07-06 2015-02-24 Target Brands, Inc. Search page topology
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
JP2013051519A (ja) 2011-08-30 2013-03-14 Sony Corp 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP5485245B2 (ja) * 2011-10-26 2014-05-07 シャープ株式会社 画像形成装置の入力装置、および画像形成装置
USD712417S1 (en) * 2011-12-28 2014-09-02 Target Brands, Inc. Display screen with graphical user interface
US9024954B2 (en) 2011-12-28 2015-05-05 Target Brands, Inc. Displaying partial logos
USD711400S1 (en) 2011-12-28 2014-08-19 Target Brands, Inc. Display screen with graphical user interface
USD706793S1 (en) 2011-12-28 2014-06-10 Target Brands, Inc. Display screen with graphical user interface
USD705791S1 (en) 2011-12-28 2014-05-27 Target Brands, Inc. Display screen with graphical user interface
USD715818S1 (en) 2011-12-28 2014-10-21 Target Brands, Inc. Display screen with graphical user interface
USD703685S1 (en) 2011-12-28 2014-04-29 Target Brands, Inc. Display screen with graphical user interface
USD703687S1 (en) 2011-12-28 2014-04-29 Target Brands, Inc. Display screen with graphical user interface
USD706794S1 (en) 2011-12-28 2014-06-10 Target Brands, Inc. Display screen with graphical user interface
USD705790S1 (en) 2011-12-28 2014-05-27 Target Brands, Inc. Display screen with graphical user interface
USD705792S1 (en) 2011-12-28 2014-05-27 Target Brands, Inc. Display screen with graphical user interface
USD703686S1 (en) 2011-12-28 2014-04-29 Target Brands, Inc. Display screen with graphical user interface
USD701224S1 (en) 2011-12-28 2014-03-18 Target Brands, Inc. Display screen with graphical user interface
USD711399S1 (en) 2011-12-28 2014-08-19 Target Brands, Inc. Display screen with graphical user interface
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
KR101612662B1 (ko) 2012-03-12 2016-04-14 도시바 미쓰비시덴키 산교시스템 가부시키가이샤 데이터 동기 재생 장치, 데이터 동기 재생 방법 및 데이터 동기 제어 프로그램이 기록된 기록 매체
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
TW201348984A (zh) * 2012-05-18 2013-12-01 Primax Electronics Ltd 相片影像管理方法及相片影像管理系統
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP5844246B2 (ja) * 2012-11-30 2016-01-13 富士フイルム株式会社 検査結果表示装置及びその作動方法、並びに制御プログラム
EP2954514B1 (en) 2013-02-07 2021-03-31 Apple Inc. Voice trigger for a digital assistant
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US10691281B2 (en) * 2013-03-15 2020-06-23 Fisher-Rosemount Systems, Inc. Method and apparatus for controlling a process plant with location aware mobile control devices
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
WO2014200728A1 (en) 2013-06-09 2014-12-18 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10114537B2 (en) 2013-06-10 2018-10-30 Honeywell International Inc. Frameworks, devices and methods configured for enabling touch/gesture controlled display for facility information and content with resolution dependent display and persistent content positioning
US10474240B2 (en) 2013-06-10 2019-11-12 Honeywell International Inc. Frameworks, devices and methods configured for enabling gesture-based interaction between a touch/gesture controlled display and other networked devices
US9672006B2 (en) 2013-06-10 2017-06-06 Honeywell International Inc. Frameworks, devices and methods configured for enabling a multi-modal user interface configured to display facility information
US9619124B2 (en) 2013-06-10 2017-04-11 Honeywell International Inc. Frameworks, devices and methods configured for enabling gesture-based controlled display for facility information and content in respect of a multi-level facility
US9804735B2 (en) 2013-06-10 2017-10-31 Honeywell International Inc. Frameworks, devices and methods configured for enabling transition of content in a user interface between a map-bound layer and a map-unbound layer
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
KR101749009B1 (ko) 2013-08-06 2017-06-19 애플 인크. 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
WO2015184284A1 (en) * 2014-05-29 2015-12-03 Intergraph Corporation Apparatus and method of displaying objects in configurable window groups
US20150348496A1 (en) * 2014-05-30 2015-12-03 Pixtronix, Inc. Systems and methods for selecting display operation modes
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
JP5927242B2 (ja) * 2014-06-25 2016-06-01 株式会社デジタル 画像データ作成装置および携帯端末装置
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
WO2016131013A1 (en) * 2015-02-13 2016-08-18 Swan Solutions Inc. System and method for controlling a terminal device
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
CN108141541A (zh) 2015-10-28 2018-06-08 剑桥机电有限公司 提供光学图像稳定的相机组件
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10347048B2 (en) * 2015-12-02 2019-07-09 Seiko Epson Corporation Controlling a display of a head-mounted display device
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
JP2018005316A (ja) * 2016-06-28 2018-01-11 株式会社日立システムズ 作業記録解析閲覧システム
CN106780550B (zh) * 2016-09-13 2020-03-31 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
JP6392839B2 (ja) * 2016-12-21 2018-09-19 ファナック株式会社 画像表示装置
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10540871B2 (en) * 2017-07-05 2020-01-21 Oneevent Technologies, Inc. Evacuation system
US11212432B2 (en) * 2018-01-04 2021-12-28 Sony Group Corporation Data transmission systems and data transmission methods
KR102103847B1 (ko) * 2019-10-01 2020-05-29 한화시스템 주식회사 차세대 함정용 irst 및 mfr 표적 비디오의 파노라믹 동기 전시 장치
KR102103851B1 (ko) * 2019-10-01 2020-05-29 한화시스템 주식회사 방위각 조정이 가능한 차세대 함정용 irst 및 mfr 표적 비디오의 파노라믹 동기 전시 장치
KR102103855B1 (ko) * 2019-10-02 2020-05-29 한화시스템 주식회사 줌인/줌아웃 기능이 구비된 차세대 함정용 irst 및 mfr 표적 비디오의 파노라믹 동기 전시 장치
DE102019134580A1 (de) 2019-12-16 2021-06-17 Samson Aktiengesellschaft System zur optischen Kommunikation in einer prozesstechnischen Anlage und prozesstechnische Anlage
US11086491B1 (en) 2020-01-21 2021-08-10 Honeywell International Inc. Systems and methods for displaying video streams on a display
US20210247436A1 (en) * 2020-02-10 2021-08-12 Darryl Mendivil Real-Time Fault Detection and Infrared Inspection System
DE102020204110A1 (de) 2020-03-30 2021-09-30 Airbus Operations Gmbh Videoüberwachungssystem für eine Kabine eines Luftfahrzeugs, Luftfahrzeug und Anschluss- und Datenübertragungsset
JP2023544332A (ja) 2020-09-30 2023-10-23 ネオノード インコーポレイテッド 光学式タッチセンサ
JP2023042130A (ja) * 2021-09-14 2023-03-27 株式会社リコー 情報処理システム、画像形成装置、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55159479A (en) * 1979-05-30 1980-12-11 Mitsubishi Electric Corp Monitor unit
JPS58194483A (ja) * 1982-05-07 1983-11-12 Toshiba Eng Co Ltd 画像表示方式
JPS6049389A (ja) * 1983-08-29 1985-03-18 シャープ株式会社 ワークステーションの画面表示装置
JPS60130789A (ja) * 1983-12-19 1985-07-12 株式会社東芝 画像管理装置
JPH0353292A (ja) * 1989-07-21 1991-03-07 Fuji Facom Corp Crt2段積オペレータコンソール
JPH0372397A (ja) * 1989-08-11 1991-03-27 Tokyo Electric Co Ltd ガイダンスモニター装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6038358B2 (ja) 1978-07-19 1985-08-31 エス・カ−・ウエ−・トロストベルク・アクチエンゲゼルシヤフト 肥料溶液及びその製造方法
US4258385A (en) * 1979-05-15 1981-03-24 Combined Logic Company Interactive video production system and method
US4286289A (en) * 1979-10-31 1981-08-25 The United States Of America As Represented By The Secretary Of The Army Touch screen target designator
DE3314181A1 (de) 1983-04-19 1984-10-25 Kraftwerk Union AG, 4330 Mülheim Verfahren zur ueberwachung der ermuedung von bauteilen, z.b. in kernkraftwerken
JPS60194691A (ja) 1984-03-15 1985-10-03 Niles Parts Co Ltd 撮像方向表示機能を備えた自動車用後方監視装置
JPS6175375A (ja) 1984-04-28 1986-04-17 三菱電機株式会社 車載ナビゲ−シヨン装置
JPS60262094A (ja) 1984-06-11 1985-12-25 株式会社東芝 プラント監視装置
JPS611137A (ja) 1984-06-14 1986-01-07 Matsushita Electric Works Ltd 多重操作形操作盤
US4717971A (en) * 1984-08-24 1988-01-05 Eastman Kodak Company Partitioned editing method for a collection of video still pictures
JPS61187480A (ja) 1985-02-15 1986-08-21 Toshiba Corp プロセス監視装置
JPH0783368B2 (ja) * 1985-03-27 1995-09-06 株式会社日立製作所 多元情報伝送システム
US4801421A (en) 1985-06-04 1989-01-31 Westinghouse Electric Corp. On-line monitoring and analysis of reactor vessel integrity
JPS6231272A (ja) 1985-08-02 1987-02-10 Canon Inc 雲台制御装置
JPS6281887A (ja) 1985-10-04 1987-04-15 Fujitsu Ltd 画像表示方式
US4893115A (en) * 1985-11-12 1990-01-09 John Fluke Mfg. Co., Inc. Touch sensitive visual display system
JPS62136991A (ja) 1985-12-10 1987-06-19 Matsushita Electric Works Ltd 異常監視装置
JPS6310988A (ja) 1986-07-02 1988-01-18 Mitsubishi Electric Corp 視野制御装置
JPS6361597A (ja) * 1986-09-01 1988-03-17 Mitsubishi Electric Corp 遠方監視制御装置の親局装置
US4763356A (en) * 1986-12-11 1988-08-09 AT&T Information Systems, Inc. American Telephone and Telegraph Company Touch screen form entry system
US4857902A (en) * 1987-05-14 1989-08-15 Advanced Interaction, Inc. Position-dependent interactivity system for image display
JP2523666B2 (ja) 1987-07-31 1996-08-14 株式会社日立製作所 プラント運転状態表示装置
JP2693777B2 (ja) 1988-03-23 1997-12-24 株式会社日立製作所 対話画面定義方法およびその装置
US4914624A (en) * 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
US5201034A (en) * 1988-09-30 1993-04-06 Hitachi Ltd. Interactive intelligent interface
US6099522A (en) * 1989-02-06 2000-08-08 Visx Inc. Automated laser workstation for high precision surgical and industrial interventions
JPH02224101A (ja) 1989-02-27 1990-09-06 Toshiba Corp Crt監視制御装置
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
US5021878A (en) * 1989-09-20 1991-06-04 Semborg-Recrob, Corp. Animated character system with real-time control
US5095365A (en) * 1989-10-20 1992-03-10 Hitachi, Ltd. System for monitoring operating state of devices according to their degree of importance
EP0436312A3 (en) 1989-12-14 1993-06-09 Westinghouse Electric Corporation Diagnostic expert system monitor
JP2947840B2 (ja) * 1989-12-22 1999-09-13 株式会社日立製作所 プラント運転監視装置
US5124908A (en) * 1990-04-23 1992-06-23 Ellis Corporation User interactive expert machine controller
JP2667554B2 (ja) 1990-06-05 1997-10-27 株式会社東芝 プラント監視装置
US5025314A (en) * 1990-07-30 1991-06-18 Xerox Corporation Apparatus allowing remote interactive use of a plurality of writing surfaces
FR2669752B1 (fr) * 1990-11-24 1994-04-01 Hitachi Ltd Systeme de controle de processus et procede d'affichage de fenetres pour un tel systeme.
US5307456A (en) * 1990-12-04 1994-04-26 Sony Electronics, Inc. Integrated multi-media production and authoring system
US5684514A (en) * 1991-01-11 1997-11-04 Advanced Interaction, Inc. Apparatus and method for assembling content addressable video
US5187571A (en) * 1991-02-01 1993-02-16 Bell Communications Research, Inc. Television system for displaying multiple views of a remote location
US5296945A (en) * 1991-03-13 1994-03-22 Olympus Optical Co., Ltd. Video ID photo printing apparatus and complexion converting apparatus
JP2960803B2 (ja) * 1991-08-28 1999-10-12 株式会社日立製作所 デジタル放送信号受信装置およびデジタル放送信号受信テレビジョン受信機
JPH0649389A (ja) 1992-07-28 1994-02-22 Toshiba Corp コーティング用シリカ液の製造方法
US5621429A (en) * 1993-03-16 1997-04-15 Hitachi, Ltd. Video data display controlling method and video data display processing system
JPH06314181A (ja) * 1993-04-28 1994-11-08 Hitachi Ltd 複数ディスプレイによる対話型制御システムとその制御方法
WO1995011566A1 (en) * 1993-10-20 1995-04-27 Videoconferencing Systems, Inc. Adaptive videoconferencing system
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55159479A (en) * 1979-05-30 1980-12-11 Mitsubishi Electric Corp Monitor unit
JPS58194483A (ja) * 1982-05-07 1983-11-12 Toshiba Eng Co Ltd 画像表示方式
JPS6049389A (ja) * 1983-08-29 1985-03-18 シャープ株式会社 ワークステーションの画面表示装置
JPS60130789A (ja) * 1983-12-19 1985-07-12 株式会社東芝 画像管理装置
JPH0353292A (ja) * 1989-07-21 1991-03-07 Fuji Facom Corp Crt2段積オペレータコンソール
JPH0372397A (ja) * 1989-08-11 1991-03-27 Tokyo Electric Co Ltd ガイダンスモニター装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004006581A1 (en) * 2002-07-05 2004-01-15 Deok-Woo Kim Image information management system to provide independent images for each user

Also Published As

Publication number Publication date
DE4290947T1 (ja) 1993-04-01
US20020075244A1 (en) 2002-06-20
KR100318330B1 (ko) 2002-04-22
US6965376B2 (en) 2005-11-15
KR930700931A (ko) 1993-03-16
DE4290947B4 (de) 2006-11-02
US20040227739A1 (en) 2004-11-18
KR100257593B1 (en) 2000-05-15
US6335722B1 (en) 2002-01-01

Similar Documents

Publication Publication Date Title
WO1992017875A1 (en) Method and apparatus for image or data processing, and monitoring method and apparatus using the same
JP2970964B2 (ja) 監視装置
US5202961A (en) Sequential information controller
JP3736706B2 (ja) 画像表示装置及び方法
KR100220042B1 (ko) 발표지원방법 및 그 장치
JP3578457B2 (ja) 内視鏡検査システムにおける情報の管理
US11922694B2 (en) Systems and methods for augmented reality application for annotations and adding interfaces to control panels and screens
JP4414708B2 (ja) 動画表示用パーソナルコンピュータ、データ表示システム、動画表示方法、動画表示プログラムおよび記録媒体
JP3608940B2 (ja) 映像探索表示方法及び映像探索表示装置
JP2021177351A (ja) 画像表示装置、制御方法、およびプログラム
JP3372096B2 (ja) 画像情報アクセス装置
JPWO2015040732A1 (ja) 映像表示システム及び映像表示方法
JP4458886B2 (ja) 複合現実感画像の記録装置及び記録方法
JP3775446B2 (ja) 会議情報記録方法および会議情報記録装置並びに会議情報再生装置
JP3238205B2 (ja) 画面札掛け方法および装置
JP2003067048A (ja) 情報処理装置
JP2008090526A (ja) 会議情報保存装置、システム、会議情報表示装置及びプログラム
JP2008193332A (ja) 端末監視装置と端末監視装置のためのプログラム
JPH0969008A (ja) 操作状況監視装置
JP3173910U (ja) 医用動画データの保存装置
JP5665608B2 (ja) 画像表示装置
WO2023086102A1 (en) Data visualization in extended reality
JP2006302316A (ja) 情報処理装置
JPH05181440A (ja) 映像表示装置
JP2004334897A (ja) 情報処理装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): DE KR US

WWE Wipo information: entry into national phase

Ref document number: 1019920703137

Country of ref document: KR

RET De translation (de og part 6b)

Ref document number: 4290947

Country of ref document: DE

Date of ref document: 19930401

WWE Wipo information: entry into national phase

Ref document number: 4290947

Country of ref document: DE

WWE Wipo information: entry into national phase

Ref document number: 1019997005176

Country of ref document: KR

REG Reference to national code

Ref country code: DE

Ref legal event code: 8607