WO2006003869A1 - プレイヤの画像を用いてオブジェクトを制御する情報処理装置、情報処理装置におけるオブジェクト制御方法 - Google Patents

プレイヤの画像を用いてオブジェクトを制御する情報処理装置、情報処理装置におけるオブジェクト制御方法 Download PDF

Info

Publication number
WO2006003869A1
WO2006003869A1 PCT/JP2005/011777 JP2005011777W WO2006003869A1 WO 2006003869 A1 WO2006003869 A1 WO 2006003869A1 JP 2005011777 W JP2005011777 W JP 2005011777W WO 2006003869 A1 WO2006003869 A1 WO 2006003869A1
Authority
WO
WIPO (PCT)
Prior art keywords
player
moving image
detection target
image
information processing
Prior art date
Application number
PCT/JP2005/011777
Other languages
English (en)
French (fr)
Inventor
Tsutomu Kouno
Original Assignee
Sony Computer Entertainment Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc. filed Critical Sony Computer Entertainment Inc.
Priority to US11/630,748 priority Critical patent/US7911447B2/en
Publication of WO2006003869A1 publication Critical patent/WO2006003869A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8017Driving on land or water; Flying

Definitions

  • Patent Document 1 Since the input interface disclosed in Patent Document 1 directly corresponds to the operation of the player and the operation on the image processing apparatus, it has an operability that makes it easy for everyone. is doing. For this reason, application in the field of entertainment systems, in which the user's age group is wide, is expected. On the other hand, for applications in the field of entertainment systems, a device with improved game characteristics is required.
  • FIG. 1 An example of the configuration of an entertainment system according to the present embodiment is shown in FIG.
  • an analog or digital video camera 1 shoots a player 4 located at a position facing the display device 3.
  • the entertainment device 2 continuously and continuously captures the resulting moving image, and the entertainment device 2
  • a superimposed image obtained by superimposing a computer image (CG) generated by the above and a specular moving image of a moving image captured from the video camera 1 is displayed on the display device 3 in real time. Therefore, the operation of the player 4 is reflected in real time in the superimposed image, and the player 4 can enjoy playing with this superimposed image.
  • the specular moving image can be generated by performing specular processing (image reversal processing of the image) with the entertainment device 2 on the moving image captured from the video camera 1, but other methods may be used.
  • video camera 1 may be mirrored.
  • the sub CPU 320 performs various operations according to the control program stored in the ROM 323.
  • the sub DMAC 322 is a semiconductor device that performs control such as DMA transfer for each circuit connected to the sub bus B2 only when the bus interface INT is disconnected from the main bus B1 and the sub bus B2. It is.
  • the input unit 331 receives a connection terminal 332 to which an input signal from the operation device 335 is input, a connection terminal 333 to which an image signal from the video camera 1 is input, and an audio signal from the video camera 1 or the like. Connection end It has child 334. In this specification, only the image is described, and the description of the sound is omitted for convenience.
  • FIG. 1 A functional block diagram of the entertainment apparatus 2 is shown in FIG. That is, the entertainment apparatus 2 includes a video image input unit 101, a difference detection unit 102, a main control unit 103, an object data storage unit 104, a superimposed image generation unit 105, and a display control unit 106.
  • the entertainment device 2 forms a functional block as shown in FIG. 3 by executing a program recorded on a recording medium such as a DVD-ROM or CD-ROM.
  • the video image input unit 101 takes in a video image shot by the video camera 1, performs mirror surface processing, that is, left-right inversion processing, and outputs it.
  • the video image is a moving image, and the video image input unit 101 continuously captures images sent from the video camera 1. Therefore, the video image input unit 101 includes a mirror processing unit 101a. Subsequent processing is performed on the mirrored video image. Note that when the mirror processing of the video image is performed by the video camera 1, the mirror processing unit 101a can be omitted.
  • the difference detection unit 102 stores a certain mirror moving image in the main memory 311 as a “reference image” between the mirror moving images of other frames.
  • the specular moving image to be stored may be the entire specular moving image for one frame, but it is sufficient if the difference value of the detection target region can be derived. You can do it.
  • the difference detection unit 102 recognizes the player motion detection area 201, assuming that a difference value has occurred in the area corresponding to the hand movement. This recognition result is notified to the main control unit 103, and is used to determine the movement of the object appearing in the game scenario.
  • the player's motion may be detected by recognizing a turn by extracting a difference between frames of the characteristic portion. In this case, the direction and speed of the player's movement can be grasped.
  • the main control unit 103 controls the entire entertainment system. For example, when the entertainment apparatus 2 is executing a game program, the main control unit 103 determines the progress of the game according to the program. Further, when the main control unit 103 determines the progress of the game, in particular, the movement of an object appearing in the game, the detection result of the difference detection unit 102 may be referred to.
  • the main control unit 103 can set one or a plurality of detection target areas in the video image. This detection target area can be used to determine whether or not the player has operated in that area. That is, it is sufficient for the difference detection unit 102 to obtain a difference value in the detection target region and detect the player's action.
  • FIG. 5B is a diagram in which the detection target areas 202 and 203 and the player motion detection area 201 are overlapped.
  • the player's action is detected in the detection target area on the right side, that is, the detection target area 203.
  • the main control unit 103 recognizes that the action of the player has been detected in the detection target area 203, and detects it.
  • the target area 202 it is recognized that the action of the player is not detected. It should be noted that the main control unit 103 is not affected even if the player's movement is detected outside the detection target area.
  • the detection target areas may be adjacent to each other, or depending on the player's action, the player's action may be detected even in the detection target area not intended by the player.
  • a threshold value is set for the player motion detection in the detection target region, and the evaluation value corresponding to the difference value of the frame exceeds the threshold value for the detection target region. Hope to certify that the motion has been detected.
  • the detection target area can be moved according to the progress of the game scenario, for example.
  • the position, shape, etc. can be changed according to the movement of the object to be moved in the game.
  • the main control unit 103 generates a computer image to be presented to the player according to the game scenario.
  • a CG generation unit 103a is provided.
  • the CG generation unit 103a generates various computer images along the game story.
  • the object data recorded in the object data storage unit 104 is referred to.
  • the superimposed image generation unit 105 generates a superimposed image in which the video image mirror-processed by the image reversing unit 102 and the computer image generated by the CG generation unit 103a are superimposed. At this time, the video image can be superimposed by semi-transparent processing or the like so that the player can more easily check the computer image.
  • the display control unit 106 causes the display device 3 to display the superimposed image generated by the superimposed image generation unit 105. That is, the player can perform various operations on the entertainment system while viewing the superimposed image of his / her specular moving image and the computer image.
  • a first example of object movement processing mainly performed by the main control unit 103 will be described.
  • a computer image a ball 210 is displayed as an object to be moved as shown in FIG. 6A. Then, the ball 210 is moved along the course 211 in accordance with the action of the player. It should be noted that, on the display, the course 211 and the background can be changed with respect to the ball 210, so that the ball 210 can be displayed so as to roll on the course 211.
  • the computer image can include, for example, play time (time limit), score, and other information presented to the player according to the game scenario.
  • FIG. 6B is a diagram showing a screen at the time of playing in which the mirror image of the player is superimposed on the computer image shown in FIG. 6A.
  • the mirror moving image is made translucent and displayed over the computer image.
  • Course 211 has a starting point and a goal point, and a path that turns left and right from the start toward the goal is set.
  • the course 211 may be provided with an uphill and a downhill.
  • the image data of the ball 210, the image data of the course 211, geographic data, and the like are stored in advance in the object data storage unit 104.
  • main controller 103 sets detection target area 210a and detection target area 210b in correspondence with the area of ball 210.
  • a display is made so that the ball 210 moves to the left front as shown in FIG. 7B.
  • a display is made so that the ball 210 moves forward as shown in FIG. 7C.
  • a display is made so that the ball 210 moves to the right as shown in FIG. 7D.
  • the ball 210 is kept in a stationary state when the ball 210 is stationary, and the speed is slow when the ball 210 is moving. Display as follows.
  • the force may be displayed as if the ball 210 is moving.
  • the course has an uphill, downhill, etc.
  • the entertainment characteristics of the game are further enhanced.
  • the player can control the movement of the ball 210 by moving in the vicinity of the ball 210, for example, by waving his hand. Specifically, when moving on the right side of the ball 210, the ball 210 moves to the left, and when moving on the left side of the ball 210, the ball 210 moves to the right and operates on the entire surface of the ball 210. The ball 210 goes straight. This provides a game in which the ball 210 is moved from the start point of the course to the goal point by the action of the player. At this time, you may set a time limit and give the player the task of reaching the goal point within the time limit.
  • FIG. 9 is a flowchart for explaining processing of the entertainment system in the first embodiment.
  • the entertainment system starts playing based on the instructions of the player, the following processing is repeated at a predetermined interval, for example, every frame until the game ends.
  • the entertainment system determines whether or not an action of the player is detected in the detection target areas 210a and 210b (S101).
  • a plurality of detection target areas are provided for one object (ball 210), and the object is moved based on the detection result of each detection target area.
  • a course-out process (S106) is performed and the game is over.
  • a computer image in which a ball falls can be displayed, or a display indicating that the game is over can be performed.
  • a goal process (S 108) is performed to clear the game.
  • points can be added to the player or a display indicating that the game has been cleared can be performed.
  • the force that provided two detection target regions on the ball 210 may be provided at three locations as shown in Fig. 8A.
  • the detection target area 210c is provided on the left side of the ball 210
  • the detection target area 210d is provided in the center portion
  • the detection target area 21 Oe is provided on the right side.
  • the acquired evaluation value is further classified into “large” and “small” according to a predetermined criterion. To do. As a result, “large” and “small” movements of the player are detected for each detection target area.
  • various controls can be performed according to the detection result. For example, when the player's movement is detected only in the center detection target area 210d, the ball 210 moves straight.
  • a character 220 is displayed as an object to be moved as shown in FIG. 10A. It is assumed that a plurality of characters 220 can exist. Then, these characters 220 are moved according to the player's action.
  • a goal is provided in the computer image, and the goal is provided with an openable door. This door is controlled to open and close as appropriate. The player opens and operates the character 220 to reach the goal through the door.
  • the computer image can include, for example, time limit, score, and other information presented to the player according to the game scenario.
  • FIG. 10B is a diagram showing a screen during play in which a mirror moving image of the player is superimposed on the computer image shown in FIG. 10A.
  • the mirrored moving image is made translucent and displayed over the computer image.
  • the image data of the character 220 is stored in the object data storage unit 104 in advance.
  • main controller 103 sets four detection target areas 220a, 220b, 220c, and 220d corresponding to the area where character 220 exists. That is, an upper left detection target area 220a, an upper right detection area 220b, a lower right detection target area 220c, and a lower left detection target area 220d are set around the character 220.
  • the character 220 When the player's motion is detected in any of the detection target areas, the character 220 is moved so that the detection target area force also moves away. That is, when the player's motion is detected in the detection target area 220a at the upper left, as shown in FIG. 11B, display is performed so that the character 220 moves to the lower right. Similarly, when the player's movement is detected in the upper right detection target area 220b, the character 220 is displayed to move to the lower left, and when the player's movement is detected in the lower right detection target area 220c, When the character 220 is displayed to move to the upper left, and the player's action is detected in the detection target area 220d at the lower left, the character 220 is displayed to move to the upper right.
  • the evaluation value corresponding to the difference value is the largest, that is, the detection target having a wider area in which the motion is detected.
  • the area is treated as a detection target area in which the action of the player is detected.
  • the player can control the movement of the character 220 by moving in the vicinity of the character 220, for example, by waving his hand. Since there can be a plurality of characters 220, the player designates the character 220 to be moved and then performs an operation for movement.
  • the designation of the character 220 to be moved can be performed, for example, as follows. sand In other words, if any player's motion is detected in any detection target area of a certain character 220 in a state where no character 220 is the target of movement, that character 220 is treated as a movement target. . In order to clarify that the character 220 to be moved is a moving object, it is desirable to distinguish it from other characters 220 by, for example, changing the color or adding a mark.
  • FIG. 13 is a flowchart for explaining the processing of the entertainment system in the second embodiment.
  • the entertainment system starts playing based on the instructions of the player, the following processing is repeated at a predetermined interval, for example, every frame until the game ends.
  • the entertainment system determines whether any character 220 is an operation target V or not (S201).
  • the operation target character 220 is set based on the instruction of the player (S202). That is, the character 220 that has detected the player's movement in any of the detection target areas is set as the operation target. Note that a plurality of characters 220 may be set as operation targets.
  • the movement value of the character 220 is calculated in accordance with a rule determined in advance (S204), and the position of the movement destination of the character 220 is calculated (S205).
  • the rules determined in advance determine the traveling direction of the character 220 according to the detection results of the detection target areas 220a to 220d in the upper left, upper right, lower right, and lower left as described above. Further, the amount of movement can be set to a predetermined value.
  • the position is the destination of movement and move the character 220 so as to approach the position sequentially. In this case, until the character 220 reaches the destination, it is not necessary to determine the detection target area for each character 220 in units of frames. [0080] Then, the display process of the character 220 moving and crawl is performed! / ⁇ , and the computer screen is updated (S206).
  • a plurality of detection target areas (220a, 220b, 220c, 220d) are provided for one object (character 220), and based on the detection results of the respective detection target areas.
  • the game scenario will progress by moving the object.
  • goal processing is performed for the character 220.
  • the goal processing for example, points are added to the player. Further, the character 220 is excluded from the operation target.
  • a detection target area may be provided.
  • the upper left detection target area 220e, the upper right detection area 220f, the lower right detection target area 220g, and the lower left detection target area 220g are set around the character 220.
  • the character 220 is moved so as to proceed in the direction of the detection target area. That is, when the player's motion is detected in the detection target area 220a at the upper left, as shown in FIG. 12B, display is performed so that the character 220 moves to the upper left. Similarly, when the player's motion is detected in the upper right detection target area 220b, the character 220 is displayed to move to the upper right, and the player's movement is detected in the lower right detection target area 220c. In such a case, display is performed such that the character 220 moves to the lower right, and when the action of the player is detected in the detection target area 220d at the lower left, display is performed such that the character 220 moves to the lower left.
  • the character 220 moves in the lower right direction. To do. Furthermore, if the player continues to move at the same position, eventually the character 220 moves to the movement position of the player. Then, the position of the character 220 and the movement position of the player overlap, and the movement of the player deviates from the detection target area. As a result, the player's movement is not detected, and the movement of the character 220 stops. In other words, the player can control the movement position of the character 220 by performing an action at the movement target location.
  • a plurality of detection target areas are provided for one object displayed as a computer image, and the detection results of the respective detection target areas with respect to the action of the superimposed player are displayed.

Abstract

 プレイヤの鏡面動画像から動きのある領域を検出する検出手段と、移動対象のオブジェクトを含むコンピュータ画像を生成する制御手段と、前記鏡面動画像と、前記コンピュータ画像とを重ねた重畳動画像を表示装置に表示させる表示制御手段とを備え、前記制御手段は、前記移動対象のオブジェクトについて、複数の検出対象領域を設定し、それぞれの検出対象領域に対応する領域における鏡面動画像の動きの検出結果に応じて、前記オブジェクトの移動態様を制御する。これにより、カメラで撮影したプレイヤの画像を入力インタフェースとして用いる情報処理システムにおいて、よりゲーム性を高めることができる。

Description

プレイヤの画像を用いてオブジェクトを制御する情報処理装置、情報処 理装置におけるオブジェクト制御方法
技術分野
[0001] 本発明は、カメラで撮影したプレイヤの画像を用いてゲームシナリオを進行させる 情報処理システムに関する。
背景技術
[0002] カメラで撮影したプレイヤの画像をコマンド等を入力するための入力インタフェース として利用した情報処理システムが提案されて 、る。
[0003] 例えば、特許文献 1には、プレイヤを写した鏡面動画像とメニュー画像等のコンビュ ータ画像との合成動画像を生成し、画像に表示されるプレイヤの手をポインティング デバイスに見立ててメニューの選択等の指示を受け付ける画像処理装置が開示され ている。
[0004] 特許文献 1 :特開 2002— 196855号公報
発明の開示
発明が解決しょうとする課題
[0005] 特許文献 1に開示されて!、る入力インタフェースは、プレイヤの動作と画像処理装 置に対する操作とが直接的に対応しているため、万人にわカゝりやすい操作性を有し ている。このため、特に、ユーザの年齢層が幅広いエンタテインメントシステムの分野 での応用が期待される。一方、エンタテインメントシステムの分野での応用には、より ゲーム性を高めた工夫が要求される。
[0006] 本発明は、カメラで撮影したプレイヤの画像を入力インタフェースとして用いる情報 処理システムにおいて、よりゲーム性を高めるための技術を提供することを目的とす る。
課題を解決するための手段
[0007] 上記課題を解決するための本発明の第 1の態様である情報処理装置は、
プレイヤの鏡面動画像力 動きのある領域を検出する検出手段と、 移動対象のオブジェクトを含むコンピュータ画像を生成する制御手段と、 前記鏡面動画像と、前記コンピュータ画像とを重ねた重畳動画像を表示装置に表 示させる表示制御手段とを備え、
前記制御手段は、前記移動対象のオブジェクトについて、複数の検出対象領域を 設定し、それぞれの検出対象領域に対応する領域における鏡面動画像の動きの検 出結果に応じて、前記オブジェクトの移動態様を制御する。
[0008] 本発明によれば、 1つのオブジェクトについて複数の検出対象領域を設け、重畳表 示されたプレイヤの動作に対する各検出対象領域の検出結果に応じてオブジェクト を移動させることにより、カメラで撮影したプレイヤの画像を入力インタフェースとして 用いる情報処理システムにおいて、よりゲーム性を高めることができる。
[0009] ここで、撮影装置でプレイヤを撮影したプレイヤ動画像の入力を受け付けるプレイ ャ動画像受付手段と、
前記プレイヤ動画像を鏡面処理して鏡面動画像を生成する鏡面動画像処理手段 とをさらに備えることができる。
[0010] また、前記表示制御手段は、前記鏡面動画像を半透明処理して前記コンピュータ 画像と重ね合わせることが望まし 、。
[0011] 具体的には、前記制御手段は、それぞれの検出対象領域に対応する領域におけ る鏡面動画像の動きの検出結果に応じて、前記オブジェクトの進行方向を決定する ようにすることができる。
[0012] このとき、前記制御手段は、前記オブジェクトに 2箇所の検出対象領域を設定し、 一方の検出対象領域で動きを検出した場合には、他方の検出対象領域側に進行 するように、双方の検出対象領域で動きを検出した場合には、直進するように進行方 向を決定することができる。
[0013] また、前記検出手段は、前記鏡面動画像のフレーム間の差分に基づいて、動きの ある領域を検出することができる。
[0014] 上記課題を解決するための本発明の第 2の態様である記録媒体は、
プレイヤの鏡面動画像力 動きのある領域を検出する検出手段と、
移動対象のオブジェクトを含むコンピュータ画像を生成する制御手段と、 前記鏡面動画像と、前記コンピュータ画像とを重ねた重畳動画像を表示装置に表 示させる表示制御手段とを情報処理装置に機能させるプログラムを記録した記録媒 体であって、
前記制御手段は、前記移動対象のオブジェクトについて、複数の検出対象領域を 設定し、それぞれの検出対象領域に対応する領域における鏡面動画像の動きの検 出結果に応じて、前記オブジェクトの移動態様を制御する。
[0015] 上記課題を解決するための本発明の第 3の態様である情報処理装置におけるォブ ジェタト制御方法は、
プレイヤの鏡面動画像から動きのある領域を検出する検出処理と、
移動対象のオブジェクトを含むコンピュータ画像を生成する制御処理と、 前記鏡面動画像と、前記コンピュータ画像とを重ねた重畳動画像を表示装置に表 示させる表示制御処理とを含み、
前記制御処理は、前記移動対象のオブジェクトについて、複数の検出対象領域を 設定し、それぞれの検出対象領域に対応する領域における鏡面動画像の動きの検 出結果に応じて、前記オブジェクトの移動態様を制御する。
図面の簡単な説明
[0016] [図 1]図 1は本発明の一実施形態に係るエンタテインメントシステムの全体構成図であ る。
[図 2]図 2はエンタテインメント装置のハードウェア構成を示すブロック図である。
[図 3]図 3はエンタテインメント装置の機能構成を示すブロック図である。
[図 4]図 4Aはプレイヤの動作を示す図である。図 4Bは検出された領域を示す図であ る。
[図 5]図 5Aは検出対象領域を説明する図である。図 5Bは検出対象領域と、プレイヤ 動作検出領域とを重ね合わせた図である。図 5Cはプレイヤの動作が検出された領 域を説明する図である。
[図 6]図 6Aは第 1の実施例の移動対象オブジェクトを示す図である。図 6Bは第 1の 実施例のプレイ画面を示す図である。
[図 7]図 7Aは第 1の実施例の検出対象領域を示す図である。図 7Bは玉の移動を示 す図である。図 7Cは玉の移動を示す図である。図 7Dは玉の移動を示す図である。
[図 8]図 8Aは第 1の実施例の検出対象領域の別例を示す図である。図 8Bは玉の移 動を示す図である。図 8Cは玉の移動を示す図である。図 8Cは玉の移動を示す図で ある。図 8Eは玉の移動を示す図である。
[図 9]図 9は第 1の実施例の制御を示すフロー図である。
[図 10]図 10Aは第 2の実施例の移動対象オブジェクトを示す図である。図 10Bは第 2 の実施例のプレイ画面を示す図である。
[図 11]図 11 Aは第 2の実施例の検出対象領域を示す図である。図 11Bはキャラクタ の移動を示す図である。
[図 12]図 12Aは第 2の実施例の検出対象領域の別例を示す図である。図 12Bはキヤ ラクタの移動を示す図である。
[図 13]図 13は第 2の実施例の制御を示すフロー図である。
符号の説明
[0017] 1 ビデ才力メラ
2 エンタテインメント装置
3 ディスプレイ装置
101 ビデオ画像入力部
102 差分検出部
103 主制御部
104 オブジェクトデータ記憶部
105 重畳画像生成部
106 表示制御部
発明を実施するための最良の形態
[0018] 以下、本発明の実施形態について、図面を用いて説明する。
[0019] 本実施形態に係るエンタテインメントシステムの構成の一例を図 1に示す。このェン タティンメントシステムは、ディスプレイ装置 3に向き合った位置にいるプレイヤ 4をァ ナログまたはデジタルのビデオカメラ 1が撮影する。そして、これにより得られた動画 像をエンタテインメント装置 2が連続的に連続に取り込んで、エンタテインメント装置 2 が生成したコンピュータ画像 (CG)と、ビデオカメラ 1から取り込んだ動画像の鏡面動 画像とを重ね合わせた重畳画像をディスプレイ装置 3上にリアルタイムに表示させる ものである。したがって、重畳画像ではプレイヤ 4の動作がリアルタイムに反映される ことになり、この重畳画像でプレイヤ 4はプレイを楽しむことができる。鏡面動画像は、 ビデオカメラ 1から取り込んだ動画像をエンタテインメント装置 2で鏡面処理 (画像の 左右反転処理)することにより生成することができるが、他の方法であってもよい。例 えば、ビデオカメラ 1にお 、て鏡面処理を行なうようにしてもょ 、。
[0020] エンタテインメント装置 2は、コンピュータプログラムにより所要の機能を形成する情 報処理装置により実現される。この実施形態によるエンタテインメント装置 2は、例え ば図 2にそのハードウェア構成を示すように、それぞれ固有の機能を有する複数の 半導体デバイスが接続されたメインバス B1とサブバス B2の 2本のバスを有している。 これらのバス Bl、 B2は、バスインタフェース INTを介して互いに接続され又は切り離 されるようになつている。
[0021] メインバス B1には、主たる半導体デバイスであるメイン CPU310と、 RAMで構成さ れるメインメモリ 311と、メイン DMAC (Direct Memory Access Controller) 312と、M PEG (Moving Picture Experts Group)デコーダ(MDEC) 313と、描画用メモリとなる フレームメモリ 315を内蔵する描画処理装置(Graphic Processing Unit,以下、「GP U」) 314が接続される。 GPU314には、フレームメモリ 315に描画されたデータをデ イスプレイ装置 3で表示できるようにするためのビデオ信号を生成する CRTC (CRT C ontroller) 316が接続される。
[0022] メイン CPU310は、コンピュータの起動時にサブバス B2上の ROM323から、バス インタフェース INTを介して起動プログラムを読み込み、その起動プログラムを実行し てオペレーティングシステムを動作させる。また、メディアドライブ 327を制御するとと もに、このメディアドライブ 327に装着されたメディア 328からアプリケーションプロダラ ムゃデータを読み出し、これをメインメモリ 311に記憶させる。さらに、メディア 328か ら読み出した各種データ、例えば複数の基本図形 (ポリゴン)で構成された 3次元ォ ブジェクトデータ (ポリゴンの頂点(代表点)の座標値など)に対して、オブジェクトの形 状や動き等を表現するためのジオメトリ処理 (座標値演算処理)を行い、そして、ジォ メトリ処理によるポリゴン定義情報 (使用するポリゴンの形状およびその描画位置、ポ リゴンを構成する素材の種類、色調、質感等の指定)をその内容とするディスプレイリ ストを生成する。
[0023] GPU314は、描画コンテクスト(ポリゴン素材を含む描画用のデータ)を保持してお り、メイン CPU310力も通知されるディスプレイリストにしたがって必要な描画コンテク ストを読み出してレンダリング処理 (描画処理)を行い、フレームメモリ 315にポリゴン を描画する機能を有する半導体デバイスである。フレームメモリ 315は、これをテクス チヤメモリとしても使用できる。そのため、フレームメモリ 315上のピクセルイメージをテ タスチヤとして、描画するポリゴンに貼り付けることができる。
[0024] メイン DMAC312は、メインバス B1に接続されている各回路を対象として DMA転 送制御を行うとともに、バスインタフェース INTの状態に応じて、サブバス B2に接続さ れて ヽる各回路を対象として DMA転送制御を行う半導体デバイスであり、 MDEC3 13は、メイン CPU310と並列に動作し、 MPEG (Moving Picture Experts Group)方 式あるい ίお PEG (Joint Photographic Experts Group)方式等で圧縮されたデータを 伸張する機能を有する半導体デバイスである。
[0025] サブバス B2には、マイクロプロセッサなどで構成されるサブ CPU320、 RAMで構 成されるサブメモリ 321、サブ DMAC322、オペレーティングシステムなどの制御プ ログラムが記憶されている ROM323、サウンドメモリ 325に蓄積された音データを読 み出してオーディオ出力として出力する音声処理用半導体デバイス(SPU (Sound Pr ocessing Unit) ) 324、図示しないネットワークを介して外部装置と情報の送受信を行 う通信制御部(ATM) 326、 CD— ROMや DVD— ROMなどのメディア 328を装着 するためのメディアドライブ 327および入力部 331が接続されている。
[0026] サブ CPU320は、 ROM323に記憶されている制御プログラムにしたがって各種動 作を行う。サブ DMAC322は、バスインタフェース INTがメインバス B1とサブバス B2 を切り離して 、る状態にぉ 、てのみ、サブバス B2に接続されて 、る各回路を対象と して DMA転送などの制御を行う半導体デバイスである。入力部 331は、操作装置 3 35からの入力信号が入力される接続端子 332、ビデオカメラ 1からの画像信号が入 力される接続端子 333、およびビデオカメラ 1等からの音声信号が入力される接続端 子 334を備える。なお、本明細書では、画像についてのみ説明を行い、便宜上、音 声についての説明は省略する。
[0027] このように構成されるコンピュータは、メイン CPU310、サブ CPU320、 GPU314が 、ROM323およびメディア 328等の記録媒体から所要のコンピュータプログラムを読 み込んで実行することにより、エンタテインメント装置 2として動作する。
[0028] このエンタテインメント装置 2の機能ブロック図を図 3に示す。すなわち、ェンタティ ンメント装置 2には、ビデオ画像入力部 101と、差分検出部 102と、主制御部 103と、 オブジェクトデータ記憶部 104と、重畳画像生成部 105と、表示制御部 106とが形成 される。エンタテインメント装置 2は、 DVD-ROM, CD— ROM等の記録媒体に記 録されたプログラムを実行することで、図 3に示したような機能ブロックを構成する。
[0029] ビデオ画像入力部 101は、ビデオカメラ 1で撮影されたビデオ画像を取り込んで、 鏡面処理、すなわち左右反転処理を施して出力する。ビデオ画像は動画像であり、 ビデオ画像入力部 101はビデオカメラ 1から送られてくる画像を連続的に取り込む。 このため、ビデオ画像入力部 101は、鏡面処理部 101aを備えている。これ以降の処 理は、鏡面処理がされたビデオ画像に関して行われる。なお、ビデオ画像の鏡面処 理をビデオカメラ 1で行なうようにした場合には、鏡面処理部 101aは省くことができる
[0030] 差分検出部 102は、鏡面処理されたビデオ画像を 1フレーム毎に比較し、前後のフ レームとの間の差分を検出する。その結果、差分値が生じている領域は、前後のフレ ームでビデオ画像が変化している領域である。すなわち、差分を検出することでビデ ォ画像の変化があった領域、具体的には、プレイヤの動作が行なわれた領域を取得 することができる。
[0031] 差分値を導出するために、差分検出部 102は、ある鏡面動画像を他のフレームの 鏡面動画像との間の「参照用画像」としてメインメモリ 311に記憶する。記憶しておく 鏡面動画像は、 1フレーム分の鏡面動画像の全体でもよいが、検出対象となる領域 の差分値を導出できれば足りるので、注目する一部の領域にっ 、て記憶するように してちよい。
[0032] なお、差分値は、所定の期間累積加算して、ある閾値を超えた場合に差分値が検 出されたものと扱うことが望ましい。これにより、プレイヤの意図しない軽微な動作を検 出対象から除き、よりプレイヤの動作の明らかな領域を把握することができるからであ る。
[0033] 例えば、図 4Aに示すように、ビデオ画像に写っているプレイヤが連続的に手を振る 動作を行なう場合を例にする。すると、差分検出部 102は、手の動きに対応する領域 で差分値が生じたとして、プレイヤ動作検出領域 201を認識する。この認識結果は、 主制御部 103に通知され、ゲームシナリオに登場するオブジェクトの移動の判断に用 いられる。なお、プレイヤの動作は、特徴部分のフレーム間の差分を抽出することで ノターン認識を行なうことで検出するようにしてもよい。この場合は、プレイヤの動作 の方向、速さ等も把握することができる。
[0034] 主制御部 103は、エンタテインメントシステム全体の制御を行う。例えば、ェンタティ ンメント装置 2がゲームプログラムを実行しているときは、主制御部 103がそのプログ ラムにしたがってゲームの進行などを決定する。また、主制御部 103がゲームの進行 、特に、ゲームに登場するオブジェクトの動きを決定するときに、差分検出部 102の 検出結果を参照する場合がある。
[0035] 主制御部が差分検出部 102の検出結果を参照する場合について説明する。まず、 主制御部 103は、ビデオ画像中に 1または複数の検出対象領域を設定することがで きる。この検出対象領域は、その領域においてプレイヤの動作があった力どうかを判 別するために用いることができる。すなわち、差分検出部 102は、検出対象領域内に おいて差分値を求め、プレイヤの動作を検出すれば足りる。
[0036] 例えば、図 5Aは、主制御部 103が設定した検出対象領域の例を示している。本図 に例では、画像中に検出対象領域 202と検出対象領域 203とが設定されている。こ のような検出対象領域が設定されている場合において、図 4Aに示したプレイヤの動 作に基づいて、差分検出部 102が、図 4Bに示した領域 201を検出したとする。
[0037] 図 5Bは、検出対象領域 202、 203と、プレイヤ動作検出領域 201とを重ね合わせ た図である。本図の例では、右側の検出対象領域、すなわち、検出対象領域 203に おいて、プレイヤの動作が検出されている。この結果、主制御部 103は、図 5Cに示 すように、検出対象領域 203において、プレイヤの動作が検出されたと認識し、検出 対象領域 202では、プレイヤの動作が検出されないと認識する。なお、検出対象領 域外でプレイヤの動作が検出されても、主制御部 103は影響を受けない。
[0038] ここで、検出対象領域同士が隣接していたり、プレイヤの動作によっては、プレイヤ が意図していない検出対象領域でもプレイヤの動作が検出される場合がある。このよ うな事態を防止するために、検出対象領域におけるプレイヤ動作検出に閾値を設定 しておき、フレームの差分値に対応する評価値が、その閾値を超えた検出対象領域 につ 、てプレイヤの動作が検出されたと認定するようにすることが望ま 、。
[0039] また、閾値を設けた場合にも、複数の検出対象領域でプレイヤの動作が検出される 場合がある。このような場合には、差分値に対応する評価値が最も大きい、すなわち 、より動作が検出された領域の広い検出対象領域をプレイヤの動作が検出された検 出対象領域と扱うようにしてもょ 、し、それぞれの検出対象領域にっ 、てプレイヤの 動作が検出されたものと扱うようにしてもよい。いずれの検出方法を用いるかは、ゲー ムシナリオ等に応じて主制御部 103が決定することができる。
[0040] 検出対象領域は、例えば、ゲームシナリオの進行に応じて移動等させることができ る。例えば、ゲームにおける移動対象のオブジェクトの移動にあわせて位置、形状等 を変ィ匕させるよう〖こすることができる。
[0041] また、主制御部 103は、ゲームシナリオにしたがって、プレイヤに提示するためのコ ンピュータ画像を生成する。このため、 CG生成部 103aを備えている。 CG生成部 10 3aは、ゲームのストーリーに沿った種々のコンピュータ画像を生成する。この際に、ォ ブジェクトデータ記憶部 104に記録されたオブジェクトデータを参照する。
[0042] 重畳画像生成部 105は、画像反転部 102で鏡面処理されたビデオ画像と CG生成 部 103aで生成されたコンピュータ画像とを重ね合わせた重畳画像を生成する。この 際、プレイヤが、コンピュータ画像をより確認しやすいように、ビデオ画像を半透明処 理等して重ね合わせることができる。
[0043] 表示制御部 106は、重畳画像生成部 105で生成された重畳画像をディスプレイ装 置 3に表示させる。すなわち、プレイヤは、自身の鏡面動画像とコンピュータ画像との 重ね合わせ画像を見ながら、エンタテインメントシステムに対する種々の操作を行なう ことができる。 [0044] つぎに、主制御部 103が主として行なうオブジェクト移動処理の第 1の実施例につ いて説明する。本実施例では、コンピュータ画像として、図 6Aに示すように移動対象 のオブジェクトとして玉 210を表示する。そして、この玉 210を、プレイヤの動作にした がってコース 211を移動させるものとする。なお、表示上は、コース 211および背景を 玉 210に対して変化させることで、玉 210がコース 211上を転がるように表示させるよ うにすることができる。また、コンピュータ画像には、例えば、プレイ時間(制限時間)、 得点、その他ゲームシナリオに応じてプレイヤに提示する情報を含めることができる。
[0045] 図 6Bは、図 6Aに示したコンピュータ画像に、プレイヤの鏡面動画像を重畳したプ レイ時の画面を示す図である。このとき、移動対象の玉 210、コース 211をプレイヤが 認識しやすくするために鏡面動画像を半透明にしてコンピュータ画像に重ねて表示 させるようにする。また、コース 211は、スタート地点とゴール地点とが定められており 、スタートからゴールに向かって左右に曲がる道が設定されているものとする。コース 211には、上り坂、下り坂を設けるようにしてもよい。玉 210の画像データ、コース 211 の画像データおよび地理データ等は、オブジェクトデータ記憶部 104にあら力じめ格 納しておくようにする。また、玉 210の移動にあわせて、玉 210が転がるようなコンビュ ータ画像を作成することが望まし 、。
[0046] 本実施例において、主制御部 103は、図 7Aに示すように、玉 210の領域に対応さ せて、検出対象領域 210aおよび検出対象領域 210bを設定する。そして、右側の検 出対象領域 210bでプレイヤの動作を検出した場合には、図 7Bに示すように玉 210 が左前に移動するような表示を行なう。また、左右の検出対象領域 210a、 210bでプ レイヤの動作を検出した場合には、図 7Cに示すように玉 210が前に移動するような 表示を行なう。また、左側の検出対象領域 210aでプレイヤの動作を検出した場合に は、図 7Dに示すように玉 210が右前に移動するような表示を行なう。また、いずれの 検出対象領域においてもプレイヤの動作を検出しない場合には、玉 210が静止して V、るときはそのままの状態を保ち、玉 210が動 ヽて 、るときはその速度が遅くなるよう な表示を行なう。
[0047] このとき、コースその他のコンピュータ画像を変化させることで、あた力も、玉 210力 S 移動しているように表示するようにしてもよい。また、コースに上り坂、下り坂等を設け た場合には、下り坂では玉 210が加速するように、上り坂では減速するように制御す ることで、ゲームのエンタテインメント性がさらに高まることになる。
[0048] さらには、玉 210に、ヒト、動物等のキャラクタが乗っているようなコンピュータ画像を 生成することで、あた力もキャラクタが玉乗りをして 、るようなゲームを提供することが できる。
[0049] 本実施例において、プレイヤは、玉 210の付近において動作、例えば、手を振るこ とで、玉 210の移動をコントロールすることができる。具体的には、玉 210の右側で動 作を行なうと、玉 210は左方向に移動し、玉 210の左側で動作を行なうと、玉 210は 右方向に移動し、玉 210の全面で動作を行なうと、玉 210は直進する。これにより、プ レイヤの動作でコースのスタート地点からゴール地点まで玉 210を移動させるゲーム が提供される。この際、制限時間を設けて、制限時間内にゴール地点まで到達する ような課題をプレイヤに与えるようにしてもょ 、。
[0050] 図 9は、第 1の実施例におけるエンタテインメントシステムの処理を説明するフロー 図である。エンタテインメントシステムは、プレイヤの指示に基づいてプレイを開始す ると、ゲームの終了まで、所定の間隔、例えば 1フレーム毎に、以下の処理を繰り返 す。
[0051] まず、エンタテインメントシステムは、検出対象領域 210a、 210bでプレイヤの動作 が検出されたかどうかを判定する(S 101)。
[0052] その検出結果に応じて、あら力じめ定めた規則にしたがって玉 210の移動値を算 出する(S102)。あら力じめ定めた規則は、上述のように、左右の検出対象領域 210 a、 210bの検出の有無で玉 210の進行方向を定めるものである。また、移動量は、あ らカじめ定めた所定の値とすることができる。ただし、玉 210の移動状況に応じて、移 動量を変化させるようにしてもよい。例えば、プレイヤの動作の検出が繰り返されると 、次第に玉 210が加速していったり、プレイヤの動作が検出されないと、玉 210が減 速していくようにすることもできる。さらには、コースの状況 (上り坂、下り坂、道の種類 )が玉 210の移動に影響を与えるようにすることもできる。
[0053] つぎに、算出された玉 210の移動値に基づいて、玉 210のコース上の位置を算出 する(S103)。これは、前の時点の玉 210の位置と算出された移動値とから求めるこ とがでさる。
[0054] そして、玉 210のコース上の位置に基づく表示処理を行ない、コンピュータ画面を 更新する(S104)。具体的には、算出された位置に対応するコースの風景等をコンビ ユータ画像で生成する。
[0055] 以上の処理を繰り返すことにより、プレイヤの動作に基づいて玉 210が移動していく 様子が表現される。
[0056] このように、本実施例では、 1つのオブジェクト(玉 210)について、複数の検出対象 領域 (210a、 210b)を設け、それぞれの検出対象領域の検出結果に基づいてォブ ジェタトを移動させることによりゲームシナリオが進行していくものである。
[0057] なお、玉 210の位置を算出した結果、コースから外れてしまった場合(S 105 : Y)に は、コースアウト処理(S106)を行ない、ゲームオーバとする。コースアウト処理では、 例えば、玉が転落するコンピュータ画像を表示したり、ゲームオーバであることを示す 表示を行なうようにすることができる。
[0058] また、玉 210の位置を算出した結果、ゴールに到着した場合 (S 107 : Y)には、ゴー ル処理(S 108)を行ない、ゲームクリアとする。ゴール処理(S108)では、例えば、プ レイヤに対して加点したり、ゲームクリアしたことを示す表示を行なうようにすることが できる。
[0059] 上記の例では、玉 210に 2箇所の検出対象領域を設けていた力 図 8Aに示すよう に 3箇所設けるようにしてもよい。本図の例では、玉 210の左側に検出対象領域 210 cが設けられ、中央部分に検出対象領域 210dが設けられ、右側に検出対象領域 21 Oeが設けられている。
[0060] 検出対処領域を 3箇所設けた場合の、各検出対処領域における検出結果と玉 210 の動きの例について説明する。
[0061] 本例では、複数個の検出対象領域でプレイヤの動作を検出でき、さらに、検出され た差分値の大きさに対応する評価値を算出するものとする。すなわち、プレイヤの動 きが検出されたそれぞれの検出対象領域について、プレイヤの動きの大きさに対応 する評価値が取得される。
[0062] ここでは、取得された評価値を、さらに所定の基準により「大」「小」に区別するものと する。これにより、それぞれの検出対象領域について、プレイヤの動作の「大」「小」が 検出されること〖こなる。
[0063] このような場合においては、検出結果に応じて様々な制御を行なうことができる。例 えば、中央の検出対象領域 210dのみでプレイヤの動作が検出された場合には、玉 210が直進するようにする。
[0064] また、右側の検出対象領域 210eのみでプレイヤの大きな動作が検出された場合 には、図 8Bに示すように、大きく左方向に速く進むようにする。このとき、検出された プレイヤの動作が小さ 、場合には図 8Cに示すように大きく左方向にゆっくり進むよう にする。これにより、プレイヤは動作の大きさを変化させることで玉 210の早さを制御 することがでさるよう〖こなる。
[0065] また、右側の検出対象領域 210eでプレイヤの大きな動作が検出され、左側の検出 対象領域 210cで小さな動作が検出された場合には、図 8Dに示すように少し左方向 に進むようにする。これにより、プレイヤは左右の動作の大きさを変化させることで、玉 210の進行方向を細力べ制御することができるようになる。
[0066] この状態で、例えば、プレイヤが左側の検出対象領域 210cに対応する動作を大き くすると、右側の検出対象領域 210eおよび左側の検出対象領域 210cでプレイヤの 大きな動作が検出されることになる。この場合は、例えば、図 8Eに示すように玉 220 を速く直進させるようにする。
[0067] このように、玉 220により多くの検出対象領域を設けたり、プレイヤの動作の大きさ に基づく評価値を算出することで、玉 220の移動について、より細かな制御を行なう ことがでさるよう〖こなる。
[0068] つぎに、主制御部 103が主として行なうオブジェクト移動処理の第 2の実施例につ いて説明する。本実施例では、コンピュータ画像として、図 10Aに示すように移動対 象のオブジェクトとしてキャラクタ 220を表示する。キャラクタ 220は、複数存在するこ とができるものとする。そして、これらのキャラクタ 220を、プレイヤの動作にしたがって 移動させるものとする。コンピュータ画像内にはゴールが設けられており、ゴールには 開閉式の扉が設けられて 、る。この扉は適宜開 、たり閉じたりするように制御される。 プレイヤは開 ヽて 、る扉を通ってゴールに到達するように、キャラクタ 220を操作する ものとする。また、コンピュータ画像には、例えば、制限時間、得点、その他ゲームシ ナリオに応じてプレイヤに提示する情報を含めることができる。
[0069] 図 10Bは、図 10Aに示したコンピュータ画像に、プレイヤの鏡面動画像を重畳した プレイ時の画面を示す図である。このとき、移動対象のキャラクタ 220、扉 221、ゴー ル等をプレイヤが認識しやすくするために鏡面動画像を半透明にしてコンピュータ画 像に重ねて表示させるようにする。キャラクタ 220の画像データ等は、オブジェクトデ ータ記憶部 104にあら力じめ格納しておくようにする。
[0070] 本実施例において、主制御部 103は、図 11Aに示すように、キャラクタ 220の存在 する領域に対応させて、 4箇所の検出対象領域 220a、 220b, 220c, 220dを設定 する。すなわち、キャラクタ 220を中心に、左上の検出対象領域 220a、右上の検出 領域 220b、右下の検出対象領域 220c、左下の検出対象領域 220dが設定されて いる。
[0071] そして、いずれかの検出対象領域でプレイヤの動作を検出した場合には、検出対 象領域力も遠ざ力るようにキャラクタ 220を移動させる。すなわち、左上の検出対象領 域 220aでプレイヤの動作を検出した場合には、図 11Bに示すように、キャラクタ 220 が右下に移動するような表示を行なう。同様に右上の検出対象領域 220bでプレイヤ の動作を検出した場合には、キャラクタ 220が左下に移動するような表示を行ない、 右下の検出対象領域 220cでプレイヤの動作を検出した場合には、キャラクタ 220が 左上に移動するような表示を行ない、左下の検出対象領域 220dでプレイヤの動作 を検出した場合には、キャラクタ 220が右上に移動するような表示を行なう。このため 、本実施例では、複数の検出対象領域でプレイヤの動作が検出された場合には、差 分値に対応する評価値が最も大きい、すなわち、より動作が検出された領域の広い 検出対象領域をプレイヤの動作が検出された検出対象領域と扱うようにする。
[0072] 本実施例において、プレイヤは、キャラクタ 220の付近において動作、例えば、手を 振ることで、キャラクタ 220の移動をコントロールすることができる。キャラクタ 220は、 複数存在することができるため、プレイヤは移動対象のキャラクタ 220を指定してから 移動のための操作を行なうようにする。
[0073] 移動対象のキャラクタ 220の指定は、例えば、以下のように行なうことができる。すな わち、どのキャラクタ 220も移動対象となっていない状態で、あるキャラクタ 220のい ずれかの検出対象領域においてプレイヤの動作が検出された場合に、そのキャラク タ 220を移動対象として扱うものとする。移動対象となったキャラクタ 220は、移動対 象であることを明確にするため、例えば、色を変化させたり、マークを付すことにより、 他のキャラクタ 220と区別することが望ま 、。
[0074] 図 13は、第 2の実施例におけるエンタテインメントシステムの処理を説明するフロー 図である。エンタテインメントシステムは、プレイヤの指示に基づいてプレイを開始す ると、ゲームの終了まで、所定の間隔、例えば 1フレーム毎に、以下の処理を繰り返 す。
[0075] まず、エンタテインメントシステムは、いずれかのキャラクタ 220が操作対象になって V、るかどうかを判断する(S201)。
[0076] その結果、いずれのキャラクタ 220も操作対象となっていない場合(S201 :N)には 、プレイヤの指示に基づいて、操作対象のキャラクタ 220を設定する(S202)。すな わち、いずれかの検出対象領域においてプレイヤの動作を検出したキャラクタ 220を 操作対象とする。なお、複数のキャラクタ 220について操作対象と設定可能としてもよ い。
[0077] 操作対象のキャラクタ 220が設定されている場合には(S201 :Y、 S202)、操作対 象のキャラクタ 220について、いずれかの検出対象領域でプレイヤの動作が検出さ れたかを判定する(S203)。
[0078] その検出結果に応じて、あら力じめ定めた規則にしたがってキャラクタ 220の移動 値を算出して(S204)、キャラクタ 220の移動先の位置を算出する(S205)。あらかじ め定めた規則は、上述のように、左上、右上、右下、左下の検出対象領域 220a〜2 20dの検出結果に応じてキャラクタ 220の進行方向を定めるものである。また、移動 量は、あら力じめ定めた所定の値とすることができる。
[0079] ただし、検出結果に基づ!/、て、移動の目的地となる位置を決定して、順次その位置 に近づくようにキャラクタ 220を移動させるようにしてもよい。この場合は、キャラクタ 22 0が目的地に到達するまで、そのキャラクタ 220についてはフレーム単位で検出対象 領域の判定を行なわなくてもよ 、。 [0080] そして、キャラクタ 220が移動して ヽく表示処理を行な!/ヽ、コンピュータ画面を更新 する(S206)。
[0081] 以上の処理を制限時間が経過するまで (S209 :Y)繰り返すことにより、プレイヤの 動作に基づ 、てキャラクタ 220が移動して 、く様子が表現される。
[0082] このように、本実施例においても、 1つのオブジェクト(キャラクタ 220)について、複 数の検出対象領域(220a、 220b, 220c, 220d)を設け、それぞれの検出対象領域 の検出結果に基づいてオブジェクトを移動させることによりゲームシナリオが進行して いくことになる。
[0083] なお、キャラクタ 220の位置を算出した結果、ゴールに到達した場合 (S207 :Y)に は、そのキャラクタ 220についてゴール処理(S208)を行なう。ゴール処理では、例え ば、プレイヤに対して加点を行なう。また、そのキャラクタ 220を操作対象から除外す る。
[0084] 上記の例では、キャラクタ 220を中心とした円の領域に 4箇所の検出対象領域を設 けて 、たが、図 12Aに示すようにキャラクタ 220の部分を除 、たドーナツ状の領域に 検出対象領域を設けるようにしてもよい。ここでは、キャラクタ 220を中心に、左上の 検出対象領域 220e、右上の検出領域 220f、右下の検出対象領域 220g、左下の検 出対象領域 220gが設定されて ヽるものとする。
[0085] そして、いずれかの検出対象領域でプレイヤの動作を検出した場合には、検出対 象領域の方向に進むようにキャラクタ 220を移動させる。すなわち、左上の検出対象 領域 220aでプレイヤの動作を検出した場合には、図 12Bに示すように、キャラクタ 2 20が左上に移動するような表示を行なう。同様に右上の検出対象領域 220bでプレ ィャの動作を検出した場合には、キャラクタ 220が右上に移動するような表示を行な い、右下の検出対象領域 220cでプレイヤの動作を検出した場合には、キャラクタ 22 0が右下に移動するような表示を行ない、左下の検出対象領域 220dでプレイヤの動 作を検出した場合には、キャラクタ 220が左下に移動するような表示を行なう。
[0086] 本図に示すような検出対象領域を設定し、キャラクタ 220の移動方向を定めると、 例えば、右下の検出対象領域 220gでプレイヤが動作を行なうと、キャラクタ 220は右 下方向に移動する。さらに、プレイヤが同じ位置で動作を続けると、やがてキャラクタ 220がプレイヤの動作位置に移動してくる。すると、キャラクタ 220の位置とプレイヤ の動作位置とが重なり、プレイヤの動作が検出対象領域から外れることになる。この 結果、プレイヤの動作が検出されず、キャラクタ 220の移動が停止する。つまり、プレ ィャは、移動目的の箇所で動作を行なうことで、キャラクタ 220の移動位置を制御す ることがでさるよう〖こなる。
[0087] なお、実施例 1および実施例 2において、プレイヤの動作の検出に特徴部分の差 分を検出するようにして、いわゆるパターン認識を用いた場合には、認識したプレイ ャの動作の方向、速さ等を考慮して操作対象である玉 210、キャラクタ 220を移動さ せるようにしてちょい。
[0088] 以上のように、本発明によれば、コンピュータ画像で表示された 1つのオブジェクト について複数の検出対象領域を設け、重畳表示されたプレイヤの動作に対する各 検出対象領域の検出結果に応じてオブジェクトを移動させることによりゲームシナリオ を進行させることで、カメラで撮影したプレイヤの画像を入力インタフェースとして用い る情報処理システムにおいて、よりゲーム性を高めることができる。

Claims

請求の範囲
[1] 情報処理装置であって、
プレイヤの鏡面動画像力 動きのある領域を検出する検出手段と、
移動対象のオブジェクトを含むコンピュータ画像を生成する制御手段と、 前記鏡面動画像と、前記コンピュータ画像とを重ねた重畳動画像を表示装置に表 示させる表示制御手段とを備え、
前記制御手段は、前記移動対象のオブジェクトについて、複数の検出対象領域を 設定し、それぞれの検出対象領域に対応する領域における鏡面動画像の動きの検 出結果に応じて、前記オブジェクトの移動態様を制御する。
[2] 請求項 1に記載の情報処理装置において、
撮影装置でプレイヤを撮影したプレイヤ動画像の入力を受け付けるプレイヤ動画 像受付手段と、
前記プレイヤ動画像を鏡面処理して鏡面動画像を生成する鏡面動画像処理手段 とをさらに備える。
[3] 請求項 1に記載の情報処理装置において、
前記表示制御手段は、前記鏡面動画像を半透明処理して前記コンピュータ画像と 重ね合わせる。
[4] 請求項 1に記載の情報処理装置において、
前記制御手段は、それぞれの検出対象領域に対応する領域における鏡面動画像 の動きの検出結果に応じて、前記オブジェクトの進行方向を決定する。
[5] 請求項 4に記載の情報処理装置において、
前記制御手段は、プレイヤに対する前記オブジェクトの進行方向のガイダンスとな る表示を前記コンピュータ画像に含める。
[6] 請求項 4に記載の情報処理装置であって、
前記制御手段は、前記複数の検出対象領域のうちの 2箇所の検出対象領域につ いて、
一方の検出対象領域で動きを検出した場合には、他方の検出対象領域側に進行 するように、双方の検出対象領域で動きを検出した場合には、直進するように進行方 向を決定する。
[7] 請求項 1に記載の情報処理装置において、
前記検出手段は、前記鏡面動画像のフレーム間の差分に基づいて、動きのある領 域を検出する。
[8] プレイヤの鏡面動画像力 動きのある領域を検出する検出手段と、
移動対象のオブジェクトを含むコンピュータ画像を生成する制御手段と、 前記鏡面動画像と、前記コンピュータ画像とを重ねた重畳動画像を表示装置に表 示させる表示制御手段とを情報処理装置に機能させるプログラムを記録した記録媒 体であって、
前記制御手段は、前記移動対象のオブジェクトについて、複数の検出対象領域を 設定し、それぞれの検出対象領域に対応する領域における鏡面動画像の動きの検 出結果に応じて、前記オブジェクトの移動態様を制御する。
[9] 請求項 8に記載の記録媒体において、
前記プログラムは、
撮影装置でプレイヤを撮影したプレイヤ動画像の入力を受け付けるプレイヤ動画 像受付手段と、
前記プレイヤ動画像を鏡面処理して鏡面動画像を生成する鏡面動画像処理手段 とをさらに情報処理装置に機能させる。
[10] 請求項 8に記載の記録媒体において、
前記表示制御手段は、前記鏡面動画像を半透明処理して前記コンピュータ画像と 重ね合わせる。
[11] 請求項 8に記載の記録媒体において、
前記制御手段は、それぞれの検出対象領域に対応する領域における鏡面動画像 の動きの検出結果に応じて、前記オブジェクトの進行方向を決定する。
[12] 請求項 11に記載の記録媒体において、
前記制御手段は、プレイヤに対する前記オブジェクトの進行方向のガイダンスとな る表示を前記コンピュータ画像に含める。
[13] 請求項 11に記載の記録媒体であって、 前記制御手段は、前記複数の検出対象領域のうちの 2箇所の検出対象領域につ いて、
一方の検出対象領域で動きを検出した場合には、他方の検出対象領域側に進行 するように、双方の検出対象領域で動きを検出した場合には、直進するように進行方 向を決定する。
[14] 請求項 8に記載の記録媒体において、
前記検出手段は、前記鏡面動画像のフレーム間の差分に基づいて、動きのある領 域を検出する。
[15] 情報処理装置におけるオブジェクト制御方法であって、
プレイヤの鏡面動画像から動きのある領域を検出する検出処理と、
移動対象のオブジェクトを含むコンピュータ画像を生成する制御処理と、 前記鏡面動画像と、前記コンピュータ画像とを重ねた重畳動画像を表示装置に表 示させる表示制御処理とを含み、
前記制御処理は、前記移動対象のオブジェクトについて、複数の検出対象領域を 設定し、それぞれの検出対象領域に対応する領域における鏡面動画像の動きの検 出結果に応じて、前記オブジェクトの移動態様を制御する。
PCT/JP2005/011777 2004-06-30 2005-06-28 プレイヤの画像を用いてオブジェクトを制御する情報処理装置、情報処理装置におけるオブジェクト制御方法 WO2006003869A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/630,748 US7911447B2 (en) 2004-06-30 2005-06-28 Information processing device for controlling object by using player image and object control method in the information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004194815A JP4005061B2 (ja) 2004-06-30 2004-06-30 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法
JP2004-194815 2004-06-30

Publications (1)

Publication Number Publication Date
WO2006003869A1 true WO2006003869A1 (ja) 2006-01-12

Family

ID=35782677

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/011777 WO2006003869A1 (ja) 2004-06-30 2005-06-28 プレイヤの画像を用いてオブジェクトを制御する情報処理装置、情報処理装置におけるオブジェクト制御方法

Country Status (3)

Country Link
US (1) US7911447B2 (ja)
JP (1) JP4005061B2 (ja)
WO (1) WO2006003869A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681658A (zh) * 2011-01-06 2012-09-19 三星电子株式会社 通过动作控制的显示设备及其动作控制方法
JP2012230440A (ja) * 2011-04-22 2012-11-22 Nintendo Co Ltd 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
US9513711B2 (en) 2011-01-06 2016-12-06 Samsung Electronics Co., Ltd. Electronic device controlled by a motion and controlling method thereof using different motions to activate voice versus motion recognition

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1821183A4 (en) * 2004-10-05 2011-01-26 Nikon Corp ELECTRONIC EQUIPMENT
US20060197775A1 (en) * 2005-03-07 2006-09-07 Michael Neal Virtual monitor system having lab-quality color accuracy
JP5098004B2 (ja) * 2006-02-28 2012-12-12 株式会社メガチップス 携帯端末
US7916129B2 (en) * 2006-08-29 2011-03-29 Industrial Technology Research Institute Interactive display system
CA2591808A1 (en) * 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP5096258B2 (ja) * 2008-08-05 2012-12-12 株式会社藤商事 遊技機
US8305345B2 (en) * 2008-08-07 2012-11-06 Life Technologies Co., Ltd. Multimedia playing device
JP2010134629A (ja) * 2008-12-03 2010-06-17 Sony Corp 情報処理装置および情報処理方法
JP2010142592A (ja) 2008-12-22 2010-07-01 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP5113781B2 (ja) * 2009-02-17 2013-01-09 シャープ株式会社 テレビ電話装置
JP5143085B2 (ja) * 2009-05-28 2013-02-13 株式会社エヌ・ティ・ティ・ドコモ コンピュータ、システム、シミュレーション方法及びシミュレーションプログラム
JP2011110215A (ja) * 2009-11-26 2011-06-09 Toyota Motor Kyushu Inc リハビリテーション用システム、プログラム、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
JP5255610B2 (ja) * 2010-08-18 2013-08-07 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
JP5133380B2 (ja) * 2010-08-27 2013-01-30 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
JP5627973B2 (ja) * 2010-09-24 2014-11-19 任天堂株式会社 ゲーム処理をするためのプログラム、装置、システムおよび方法
FR2967804B1 (fr) * 2010-11-19 2013-01-04 Total Immersion Procede et dispositif de detection et de suivi d'objets non rigides en mouvement, en temps reel, dans un flux video, permettant a un utilisateur d'interagir avec un systeme informatique
US9848106B2 (en) * 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US8928589B2 (en) 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
JP5583087B2 (ja) * 2011-08-04 2014-09-03 株式会社東芝 画像処理装置、方法、及びプログラム
JP5974422B2 (ja) * 2011-10-04 2016-08-23 長崎県公立大学法人 画像表示装置
US9033795B2 (en) * 2012-02-07 2015-05-19 Krew Game Studios LLC Interactive music game
JP5880199B2 (ja) 2012-03-27 2016-03-08 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
TW201403454A (zh) * 2012-07-05 2014-01-16 Asustek Comp Inc 顯示畫面旋轉的方法及系統
JP5689103B2 (ja) * 2012-11-07 2015-03-25 任天堂株式会社 ゲームプログラム、ゲームシステム、ゲーム装置、およびゲーム制御方法
JP6313666B2 (ja) * 2014-06-06 2018-04-18 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム
WO2015186402A1 (ja) * 2014-06-06 2015-12-10 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法及び画像処理プログラム
US9696813B2 (en) * 2015-05-27 2017-07-04 Hsien-Hsiang Chiu Gesture interface robot
JP5979450B2 (ja) * 2014-07-28 2016-08-24 株式会社クラス・マイスター ゲーム装置の制御プログラム
US9977565B2 (en) 2015-02-09 2018-05-22 Leapfrog Enterprises, Inc. Interactive educational system with light emitting controller
CN108932632A (zh) * 2018-06-01 2018-12-04 北京市商汤科技开发有限公司 广告互动方法及装置、电子设备和存储介质
FR3088733A1 (fr) * 2018-11-16 2020-05-22 Abderrahim Ouabbas Miroir a image retablie
CN112906553B (zh) 2021-02-09 2022-05-17 北京字跳网络技术有限公司 图像处理方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999034276A2 (en) * 1997-12-23 1999-07-08 Koninklijke Philips Electronics N.V. System and method for constructing three-dimensional images using camera-based gesture inputs
US6088018A (en) * 1998-06-11 2000-07-11 Intel Corporation Method of using video reflection in providing input data to a computer system
JP2001273503A (ja) * 2000-03-23 2001-10-05 Eiji Kawamura モーション認識システム
JP2001307124A (ja) * 2000-02-15 2001-11-02 Sega Corp 画像処理システム、画像処理装置及び撮像装置
JP2002149302A (ja) * 2000-11-09 2002-05-24 Sharp Corp インターフェース装置およびインターフェース処理プログラムを記録した記録媒体
JP2002292123A (ja) * 2001-03-29 2002-10-08 Konami Co Ltd ゲーム装置、ゲーム方法、ゲームプログラム及びゲームシステム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
JP2552427B2 (ja) * 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JP3789088B2 (ja) 1996-12-06 2006-06-21 財団法人流通システム開発センタ− 統合情報通信システム
JP2001030712A (ja) * 1999-07-15 2001-02-06 Bridgestone Corp 空気入りタイヤ
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999034276A2 (en) * 1997-12-23 1999-07-08 Koninklijke Philips Electronics N.V. System and method for constructing three-dimensional images using camera-based gesture inputs
US6088018A (en) * 1998-06-11 2000-07-11 Intel Corporation Method of using video reflection in providing input data to a computer system
JP2001307124A (ja) * 2000-02-15 2001-11-02 Sega Corp 画像処理システム、画像処理装置及び撮像装置
JP2001273503A (ja) * 2000-03-23 2001-10-05 Eiji Kawamura モーション認識システム
JP2002149302A (ja) * 2000-11-09 2002-05-24 Sharp Corp インターフェース装置およびインターフェース処理プログラムを記録した記録媒体
JP2002292123A (ja) * 2001-03-29 2002-10-08 Konami Co Ltd ゲーム装置、ゲーム方法、ゲームプログラム及びゲームシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KUBODERA A.: "Creation of Game Software using Action Interface", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS GIJUTSU KENKYU HOKOKU, vol. 97, no. 85, 3 June 1997 (1997-06-03), pages 99 - 104, XP002997800 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681658A (zh) * 2011-01-06 2012-09-19 三星电子株式会社 通过动作控制的显示设备及其动作控制方法
CN102681658B (zh) * 2011-01-06 2016-03-09 三星电子株式会社 通过动作控制的显示设备及其动作控制方法
US9398243B2 (en) 2011-01-06 2016-07-19 Samsung Electronics Co., Ltd. Display apparatus controlled by motion and motion control method thereof
US9513711B2 (en) 2011-01-06 2016-12-06 Samsung Electronics Co., Ltd. Electronic device controlled by a motion and controlling method thereof using different motions to activate voice versus motion recognition
JP2012230440A (ja) * 2011-04-22 2012-11-22 Nintendo Co Ltd 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
JP4005061B2 (ja) 2007-11-07
US20080030459A1 (en) 2008-02-07
US7911447B2 (en) 2011-03-22
JP2006014875A (ja) 2006-01-19

Similar Documents

Publication Publication Date Title
JP4005061B2 (ja) 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法
WO2006003870A1 (ja) プレイヤの画像を用いてゲームキャラクタの移動を制御する情報処理装置、ゲームキャラクタ移動制御方法
US8979650B2 (en) Game apparatus, recording medium having game program recorded thereon, and game system
JP4187768B2 (ja) ゲーム装置、進行制御方法、および、プログラム
EP1768759B1 (en) Control of data processing
JP3841806B2 (ja) 画像処理装置および画像処理方法
JP2007167533A (ja) ビデオゲームプログラム、ビデオゲーム装置及びビデオゲーム制御方法
EP1213044B1 (en) Video game system, character action control method, and readable storage medium storing character action control program
JP2009279038A (ja) ゲームプログラムおよび記録媒体
US6793576B2 (en) Methods and apparatus for causing a character object to overcome an obstacle object
JP4956568B2 (ja) ゲーム装置、ゲーム制御方法、及び、プログラム
JP5502043B2 (ja) ゲーム装置、および、プログラム
JP2009011371A (ja) レーシングゲーム装置のプログラム、そのプログラムを格納した記録媒体、及びレーシングゲーム装置
US8345001B2 (en) Information processing system, entertainment system, and information processing system input accepting method
US7264547B1 (en) Game apparatus, game image preparation method and information storage medium
JP4035652B2 (ja) ゲームを実行する方法及び、これを実施するゲーム装置
JP2009207594A (ja) プログラム、情報記憶媒体、およびゲーム装置
JP2005261642A (ja) エンタテインメント装置
JP4148868B2 (ja) ゲームプログラムおよびゲーム装置
JP3981388B2 (ja) ビデオゲームプログラム、ビデオゲーム装置及びビデオゲーム制御方法
US20110183756A1 (en) Game device, method for controlling game device, program and information memory medium
JP3853796B2 (ja) 情報処理装置およびエンタテインメント装置
CN112891921A (zh) 游戏装置、游戏处理方法以及记录介质
KR20060023313A (ko) 체감형 게임용 화상처리 방법 및 이를 이용한 게임 방법
JP2001256503A (ja) 球軌跡の解析方法、球軌跡の解析装置、ゲーム実行方法、ゲーム装置、及び記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11630748

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 11630748

Country of ref document: US