WO2004053702A1 - 情報処理装置および方法、プログラム、並びに記録媒体 - Google Patents

情報処理装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
WO2004053702A1
WO2004053702A1 PCT/JP2003/012758 JP0312758W WO2004053702A1 WO 2004053702 A1 WO2004053702 A1 WO 2004053702A1 JP 0312758 W JP0312758 W JP 0312758W WO 2004053702 A1 WO2004053702 A1 WO 2004053702A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
terminal
user
output
unit
Prior art date
Application number
PCT/JP2003/012758
Other languages
English (en)
French (fr)
Inventor
Masumi Ono
Mikio Kamada
Masamichi Asukai
Kazunori Ohmura
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to CN2003801002127A priority Critical patent/CN1692341B/zh
Priority to US10/503,121 priority patent/US7548891B2/en
Priority to EP03748712A priority patent/EP1574961A4/en
Publication of WO2004053702A1 publication Critical patent/WO2004053702A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/217Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/87Communicating with other players during game play, e.g. by e-mail or chat
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/206Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
    • A63F2300/208Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards for storing personal settings or data of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/572Communication between players during game play of non game information, e.g. e-mail, chat, file transfer, streaming of audio and streaming of video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Definitions

  • the present invention relates to a method, a program, and a recording medium for an information processing apparatus, and in particular, extracts features from various information that reflects a user's personality, performs learning, and uses based on the learning results.
  • the present invention relates to an information processing apparatus and method, a program, and a recording medium that can identify a person's emotion, state, and intensity. Background art
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2000-0234 936 (hereinafter referred to as Patent Document 1)).
  • the present invention makes it possible to specify the user's emotions and states together with their strength. It also enables communication using non-verbal information.
  • An information processing apparatus includes: an input receiving unit that receives input of non-linguistic information and linguistic information; and a learning unit that learns a user's emotion by relating the input non-linguistic information to linguistic information. And storage means for storing information obtained as a result of learning by the learning means, and output means for converting the input non-linguistic information or the stored non-linguistic information into a predetermined signal and outputting it. It is characterized by that.
  • the learning means can learn a user's emotion together with its strength.
  • the learning means identifies the user's emotion based on the non-linguistic information stored in the storage means, and the output means is a result specified by the learning means. Can be output.
  • the accumulation means can further accumulate non-linguistic information corresponding to the emotion specified by the learning means in addition to the non-linguistic information accumulated in the accumulation means.
  • Variable learning means for generating variables representing the characteristics of non-linguistic information is further provided, and the learning means can statistically process the generated variables and store the variables in the storage means.
  • the learning means can identify a user's emotion by comparing the variable generated by the variable generation means from the input non-linguistic information with the variable stored in the storage means.
  • the input means can accept input of a user's pulse information or body motion information as non-verbal information.
  • the input means can accept vibration information input by a user's keystroke as non-verbal information.
  • the input means can accept input of user's mouse grip pressure information or environmental temperature information as non-verbal information.
  • the information processing apparatus of the present invention can be a game machine that performs online games.
  • the input means can accept input of acceleration information of a game machine controller or grip pressure information as non-verbal information.
  • the output means extracts specific non-linguistic information specified by the user from the accumulated non-linguistic information, converts the extracted non-linguistic information into a predetermined signal, and specifies by the user Can be output to other game machines.
  • An information processing method includes an input receiving step for receiving input of non-linguistic information and linguistic information, and a learning step for learning the emotion of a user by relating the input non-linguistic information to linguistic information.
  • An accumulation step for accumulating information obtained as a result of learning by the learning step processing; an output step for converting the input non-linguistic information or the accumulated non-linguistic information into a predetermined signal and outputting it; It is characterized by including.
  • the program of the present invention relates to an input reception control step for controlling reception of non-linguistic information and input of linguistic information, and relates the input non-linguistic information to linguistic information to learn user's emotions.
  • a learning control step for controlling the learning a storage control step for controlling the accumulation of information obtained as a result of learning by the processing of the learning control step, and predetermined non-linguistic information or predetermined non-linguistic information stored. It is characterized by causing a computer to execute conversion into a signal and an output control step for controlling output.
  • the recording medium of the present invention includes an input reception control step for controlling reception of input of non-linguistic information and linguistic information, and learning of a user's emotion by relating the input non-linguistic information to linguistic information.
  • a learning control step for controlling the learning a storage control step for controlling the accumulation of information obtained as a result of learning by the processing of the learning control step, and a predetermined non-linguistic information or a predetermined non-linguistic information stored.
  • a program for causing a computer to execute conversion into a signal and an output control step for controlling output is recorded.
  • the input of non-linguistic information and linguistic information is accepted, and the input non-linguistic information is related to the linguistic information. Is learned. Input non-verbal information or accumulated non-linguistic information is converted into a predetermined signal and output.
  • emotion means not only emotions such as joy and disgust, but also states such as activity and stability.
  • FIG. 1 is a diagram showing a connection form of the information processing apparatus of the present invention.
  • FIG. 2 is a diagram showing input information and accumulated information in the information processing apparatus of the present invention.
  • FIG. 3 is a diagram showing the distribution of feature values corresponding to the emotion ⁇ state.
  • Fig. 4 shows the distribution of feature vectors corresponding to emotions and states.
  • FIG. 5 is a plot diagram showing a configuration example of the first information processing apparatus of the present invention.
  • FIG. 6 is a block diagram showing a configuration example of the input unit in FIG.
  • FIG. 7 is a block diagram illustrating a configuration example of the output unit in FIG.
  • FIG. 8 is a block diagram illustrating a configuration example of the output unit in FIG.
  • FIG. 9 is a diagram showing information transmitted and received between terminal A and terminal B.
  • FIG. 10 is a diagram showing information transmitted and received between terminal A and terminal B.
  • FIG. 11 is a diagram showing the contents of transmission setting information and reception setting information.
  • FIG. 12 is a flowchart for explaining the biological information accumulation process.
  • FIG. 13 is a flowchart for explaining the biological information accumulation process.
  • FIG. 14 is a flowchart for explaining the feature vector Vcl generation process.
  • Fig. IV-5 is a flowchart for explaining the feature vector Vcl generation process.
  • FIG. 16 is a flowchart for explaining the polarity determination processing.
  • FIG. 17 is a flowchart for explaining the Tv output process.
  • FIG. 18 is a flowchart for explaining the Vinin / Vraax determination process.
  • Figure 19 shows how to sample waveform information.
  • FIG. 20 is a diagram showing information obtained as a result of the Tv output process and the Vmin / Vmax determination process.
  • Figure 21 is a flowchart explaining the feature vector Vc 2 generation process.
  • Figure 22 is a flowchart explaining the feature vector Vc 2 generation process.
  • Fig. 23 is a diagram showing words and phrases representing emotions and states.
  • Fig. 24 is a diagram showing words and phrases representing the intensity of emotion / state.
  • FIG. 25 is a diagram showing a waveform of pulse information.
  • FIG. 26 is a diagram showing a waveform of body motion information.
  • FIG. 27 is a diagram showing information stored in the storage unit of terminal B.
  • Figure 28 is a flowchart explaining the emotion / state identification process.
  • Fig. 29 is a flowchart for explaining the feature vector Vcl generation process.
  • FIG. 30 is a flowchart for explaining the feature vector Vcl generation process.
  • Fig. 31 is a flowchart explaining the feature vector Vc 2 generation process.
  • Figure 32 is a flowchart explaining the feature vector Vc 2 generation process.
  • Fig. 33 is a flowchart explaining the emotion, state, and intensity determination process of Vcl.
  • Figure 34 shows the calculation result data of the inner product value of Vcl and each vector.
  • Figure 35 shows the relationship between Vcl and the distribution of each vector.
  • Fig. 36 is a flowchart explaining the emotion, state, and intensity identification process of Vc2.
  • Figure 37 shows the calculation result data for the inner product value of Vc 2 and each vector.
  • Figure 38 shows the relationship between Vc 2 and the distribution of each vector.
  • FIG. 39 is a flowchart for explaining specific result output and recalculation processing.
  • FIG. 40 is a flowchart for explaining the information output process.
  • FIG. 41 is a flowchart for explaining the information output process.
  • FIG. 42 is a diagram showing a waveform of information output in the information output process.
  • FIG. 43 shows a waveform of information output in the information output process.
  • FIG. 44 is a block diagram showing a configuration example of the second information processing apparatus of the present invention.
  • Fig. 45 is a block diagram showing a configuration example of the input unit in Fig. 44.
  • FIG. 46 is a block diagram illustrating a configuration example of the output unit in FIG.
  • FIG. 47 is a diagram showing information transmitted and received between terminal A and terminal B.
  • FIG. 48 is a diagram showing information transmitted and received between terminal A and terminal B.
  • FIG. 49 is a flowchart for explaining the vibration information accumulation process.
  • FIG. 50 is a flowchart for explaining the vibration information accumulation process.
  • FIG. 51 is a flowchart for explaining the feature vector Vc generation process.
  • Fig. 52 is a flowchart explaining the feature vector Vc generation process.
  • FIG. 53 shows information stored in the storage unit of terminal B.
  • Figure 54 shows the waveform of keyboard vibration information.
  • FIG. 55A shows data obtained from keyboard vibration information.
  • Fig. 55B shows the data obtained from the keyboard vibration information.
  • FIG. 56 is a flowchart for explaining the emotion / state identification process.
  • FIG. 57 is a flowchart for explaining the feature vector Vch generation processing.
  • Figure 58 is a flowchart explaining the feature vector Vch generation process.
  • Fig. 59 is a flowchart explaining the Vch emotion, state, and intensity identification process.
  • FIG. 60 shows the relationship between Vch and the distribution of each vector.
  • FIG. 61 is a flowchart for explaining specific result output and recalculation processing.
  • FIG. 62 is a flowchart for explaining the information output process.
  • FIG. 63 is a flowchart for explaining the information output process.
  • FIG. 64 is a diagram showing a waveform of information output in the information output process.
  • FIG. 65 is a diagram showing a waveform of information output in the information output process.
  • FIG. 66 is a block diagram showing a configuration example of the third information processing apparatus of the present invention.
  • FIG. 67 is a block diagram showing an example of the configuration of the input unit in FIG.
  • FIG. 68 is a block diagram illustrating a configuration example of the output unit in FIG.
  • FIG. 69 is a diagram showing information transmitted and received between terminal A and terminal B.
  • FIG. 70 is a diagram showing information transmitted and received between terminal A and terminal B.
  • FIG. 71 is a flowchart for explaining click information and grip pressure information accumulation processing.
  • FIG. 72 is a flowchart for explaining click information and grip pressure information accumulation processing.
  • FIG. 73 is a flowchart explaining the feature vector Vc generation process.
  • FIG. 74 is a flowchart for explaining the talic feature calculation process.
  • FIG. 75 is a flowchart for explaining the grip pressure feature calculation process.
  • FIG. 76 is a diagram showing a display example of the emotion / state report chart.
  • FIG. 77 is a diagram showing a configuration example of emotion / state report information.
  • FIG. 78 shows information stored in the storage unit of terminal B.
  • FIG. 79 shows the waveform of mouse talic information.
  • FIG. 80 shows a waveform of mouse grip pressure information.
  • FIG. 81 is a flowchart for explaining the emotion 'state identification process.
  • FIG. 82 is a flowchart explaining the feature vector Vc generation process.
  • FIG. 83 is a flowchart for explaining the taric feature calculation process.
  • Fig. 84 is a flowchart explaining the grip pressure feature calculation process.
  • Fig. 85 is a flowchart explaining the process of specifying the emotion, state, and strength of Vc.
  • Figure 86 shows the relationship between Vc and the distribution of each vector.
  • FIG. 87 is a flowchart for explaining the specific result output and recalculation processing.
  • FIG. 88 is a flowchart for explaining the information output process.
  • FIG. 89 is a flowchart for explaining the information output process.
  • FIG. 90 is a diagram showing a waveform of information output in the information output process.
  • FIG. 91 is a diagram showing a waveform of information output in the information output process.
  • FIG. 92 shows a connection form of the game machine of the present invention.
  • FIG. 93 is a diagram showing a configuration example of the game machine of the present invention.
  • FIG. 94 is a diagram showing a configuration example of the controller of the game machine of the present invention.
  • FIG. 95 is a diagram showing information transmitted and received between game machine A, game machine B, and server.
  • FIG. 96 is a diagram showing information transmitted and received between game machine A, game machine B, and server.
  • FIG. 97 is a flowchart for explaining the feature information storage process.
  • FIG. 98 is a flowchart for explaining the feature information storage process.
  • FIG. 100 is a flowchart for explaining the feature amount calculation processing of acceleration information.
  • FIG. 101 is a flowchart for explaining the feature amount calculation processing of acceleration information.
  • FIG. 10 is a diagram showing a waveform of acceleration information of the controller of the game machine.
  • FIG. 10 is a diagram showing data obtained from acceleration information of the controller of the game machine.
  • FIG. 10 is a flowchart for explaining the feature amount extraction processing of the grip pressure information.
  • FIG. 10 is a flowchart for explaining the feature amount extraction processing of the grip pressure information.
  • FIG. 10 shows a waveform of grip pressure information on the right side of the controller of the game machine.
  • FIG. 10 shows a waveform of the grip pressure information on the left side of the controller of the game machine.
  • FIG. 10 shows the data obtained from the grip pressure information on the right side of the controller of the game machine.
  • FIG. 10 is a diagram showing data obtained from the grip pressure information on the left side of the controller of the game machine.
  • FIG. 110 is a diagram showing a waveform of acceleration information of the controller of the game machine.
  • Figure 11 shows the waveform of the grip pressure information on the right side of the game console controller.
  • Fig. 1 1 2 shows the waveform of the grip pressure information on the left side of the controller of the game machine.
  • FIG. 11 shows the information stored in the storage unit of the game machine.
  • FIG. 11 is a flowchart for explaining the emotion state specifying process.
  • Figure 1 15 is a flowchart explaining the generation process of the feature vector Vcag.
  • FIG. 11 is a flowchart for explaining the emotion information specifying process of Vcag.
  • Figure 1 17 shows the relationship between Vcag and the distribution of each vector.
  • FIG. 11 is a flowchart for explaining the specific result output recalculation process.
  • FIG. 1 19 is a flowchart for explaining the information output process.
  • FIG. 120 is a flowchart for explaining the information output process.
  • FIG. 12 is a flowchart for explaining the accumulated information output process.
  • Fig. 1 2 2 is a diagram showing the waveform of the vibration presenter drive signal output in the information output process
  • Fig. 1 2 3 is a diagram showing the waveform of the light presenter drive signal output in the information output process
  • Fig. 1 2 4 is a diagram showing the waveform of the light presenter drive signal output in the information output process
  • Fig. 1 25 shows the waveform of the vibration presenter drive signal output in the information output process.
  • FIG. 1 26 is a diagram showing a waveform of the light presenting unit drive signal output in the information output process.
  • FIG. 1 27 is a diagram showing the waveform of the light presenter drive signal output in the information output process.
  • FIG. 1 is a diagram showing the configuration of a communication system using the information processing apparatus of the present invention.
  • Terminals 1, 2, and 3 that are information processing apparatuses of the present invention are each connected to network 11 and can perform information communication with each other.
  • Terminal 1 terminal A
  • terminal 2 terminal B
  • terminal 3 terminal C
  • a to 93 C learning unit that learns and identifies the user's emotions, state, and intensity from the input information 94 A to 94 C
  • storage unit that learns and stores the information identified by the learning unit 9 5 A to 9 5 C
  • output unit 9 2 A to 9 2 C for outputting information specified by the learning unit, or information stored in the accumulation unit
  • communication unit 9 6 A to 9 for transmitting / receiving information 6 C and system control units 9 7 A to 9 7 C for controlling each unit are provided.
  • terminal 1 terminal A
  • terminal 3 terminal C
  • input unit 9 1 A to system control unit 9 7 A input unit 9 1 B to system control constituting them
  • input unit 9 1 B and the input unit 9 1 C to the system control unit 9 7 C have the same functions. In the following, when there is no need to distinguish them individually, they are collectively expressed as input unit 91 to system control unit 97.
  • definition information means that information alone, Information that can be interpreted in terms of language, such as symbols with a fixed language or meaning, and self-reported information that can convey information determined by specific operations performed intentionally.
  • Non-definition information is information that can be interpreted in various ways or difficult to interpret by itself, such as pulse, blood flow, blood pressure, breathing, body temperature, skin surface temperature, skin electrical resistance, sweating, Physiological information such as brain waves and magnetoencephalograms, body movement information such as body movement and head movement, vibration due to keystrokes, and information such as pressure on the mouse are equivalent to this.
  • the processing unit 93 extracts the user's emotion, state, and its strength (emotion information E) from the input definition information, and extracts the feature quantity C and the signal level sequence from the non-definition information. Sent to the learning unit 94.
  • the emotion information E, the feature quantity C, and the signal level sequence sent to the learning unit 94 are integrated and then stored as data for each specific individual in the storage unit 95.
  • Data consists of PID, CD, and CSD as stored information.
  • a PID consists of a name, nickname, an e-mail address, a symbol such as a number assigned to an individual, gender, date of birth, residence, blood type, etc., and is information that identifies an individual.
  • CD is the personal emotion information E identified by the specific information PID, the distribution of one feature C extracted from the input undefined information fc, the median of the distribution //, the standard deviation ⁇ , and the user It is composed of the user's surrounding environment information (temperature, humidity, environmental sound information, number of neighbors, weather information, location information, etc.) ⁇ and the date and time ⁇ ⁇ when the information was stored. Emotions and states are classified into 1 and 2 as shown. Emotion
  • the accumulated information CSD is the personal emotion information E identified by the specific information PID, the vector Vc distribution fvc that combines multiple features C extracted from undefined information, the central vector Vno of the distribution V ju, Standard deviation vector ⁇ ⁇ of the distribution, the surrounding environment information of the input person when the input person inputs information (temperature, humidity, environmental sound information, number of neighbors, weather information, position information, etc.) ⁇ ⁇ , information It is composed of the date and time ⁇ that was stored
  • Emotions and states are classified into 1 and 2 as shown in Table 1, and each emotion 'state is divided into three types of strength, strong, medium, and weak, and emotion information ⁇ has 36 types. Therefore, there are 36 multi-information CSDs per person.
  • the information stored in the storage unit 95 is referred to when learning or specifying the user's emotion / state. After new information is added, the information is stored in the storage unit 95 again.
  • the information processing device can specify the emotion, state, and strength of a specific individual from only the undefined information.
  • the feature quantity of the input non-defined information is extracted and compared with information corresponding to a specific individual stored in the storage unit 95.
  • the processing unit 93 extracts a plurality of feature amounts C1, C2,... Cm from non-defined information for a specific individual a.
  • a feature vector Vex (C1, C2... Cm) is generated from the extracted feature quantities.
  • the learning unit 94 reads out the multiple information CSD for the individual a stored in the storage unit 95, and the central vector V 1, V corresponding to all the stored emotions, states, and their strengths. 2. Read V ⁇ 36.
  • Vjt nm represents the mth component of Vzn
  • the mth component of the standard deviation vector ⁇ of the distribution fvcn
  • Vcxm the mth component of Vex.
  • FIG. 3 is a diagram showing a distribution corresponding to the emotion information E1 to En of the feature quantity C.
  • the vertical axis represents the feature quantity distribution fc
  • the horizontal axis represents the feature quantity C value.
  • the distribution corresponding to emotion information E2 satisfies the condition of (V i 2m- ⁇ 2 ⁇ ) ⁇ Vcxtn ⁇ (V ⁇ 2m + ⁇ 2 ⁇ ) Yes.
  • Vex is the distribution that maximizes the inner product (Vcx, Vn) among the distributions that satisfy the condition.
  • Figure 4 shows the relationship between the feature vector Vex generated from the input undefined information and the distribution of the feature vector corresponding to each emotion information stored in the storage unit 95. It is. Since these vectors have m components, they exist in an m-dimensional space composed of axis chl, axis ch2.
  • the feature vector distribution fvc l corresponding to the emotion information E1
  • the central vector V ⁇ l of the distribution the feature vector distribution fvc2 corresponding to the emotion information E2
  • the distribution fvcn corresponding to the central vector V i 2 and emotion information En.
  • Vex is determined to belong to the distribution corresponding to the emotion information E2 because the condition of ( ⁇ ⁇ 2 111- CT 2m) ⁇ Vcxm ⁇ (V 2m + 2ra) is satisfied.
  • FIG. 5 shows a configuration example of the first information processing apparatus of the present invention.
  • the information processing apparatus can be applied to a mobile phone or the like.
  • the information processing apparatus includes an input unit 91 that accepts input of voice information, pulse information, and distance information of a user, a processing unit 9 3 that processes information input from the input unit 91, and a processing unit 93.
  • learning unit 94 which performs learning and identification based on the output feature information and emotion information, learning information output from learning unit 94, storage unit 95, which stores specific information, and processing unit 93
  • an output unit 92 that outputs information
  • a communication unit 96 that performs communication
  • a system control unit 97 that controls each unit are provided.
  • the information input from the input unit 91 is classified into voice information, pulse information, or body motion information.
  • An output control unit 1 1 4 for outputting output information to the output unit 92 is provided.
  • the communication unit 96 includes an information transmission unit 1 2 1 that transmits information and an information reception unit 1 2 2 that receives information.
  • FIG. 6 shows a configuration example of the input unit 91.
  • the microphone 1 3 1 captures the user's voice
  • the pulse wave sensor 1 3 2 detects the user's pulse
  • the distance sensor 1 3 3 detects the user's body movement
  • letters, numbers Keyboard for inputting information such as 1 3 4
  • Voice recognition unit 1 3 5 for recognizing signal from microphone 1 3
  • Power amplifier unit 1 3 6 for measuring signal from pulse wave sensor 1 3 2, Measurement It consists of a power amplifier section 1 3 7 that amplifies the signal from the distance sensor 1 3 3.
  • FIG. 7 and 8 show examples of the configuration of the output unit 92.
  • a moving object 15 2 that moves an object based on a predetermined signal and a power source drive unit 15 1 that drives the moving object 15 2 are configured.
  • the moving object 1 5 2 is composed of an object 1 7 3, a driving belt 1 7 4, a servo motor 1 7 1, and a rotating shaft 1 7 2.
  • a light emitting unit 1 9 2 that emits light based on a predetermined signal and a power amplifier unit 1 9 1 that drives the light emitting unit 1 9 2 are configured.
  • Information processing device that user a has is terminal A
  • information processing device that user b has is terminal B
  • user a and user b communicate with each other using their respective terminals Information is transmitted and received in the procedure shown in FIG.
  • terminal A sends a connection request to terminal B
  • terminal B sends a connection response to terminal A.
  • text information such as mail and chat, voice information sent and received by conversation, and image information acquired by a CCD camera are sent and received between terminal A and terminal B.
  • terminal A initializes the transmission / reception of biological information (in this case, the user's pulse information and body movement information), and sends a transmission / reception request to terminal B.
  • the transmission setting information includes information transmission mode selection ms, information processing method selection ts, and information output format setting right selection ds.
  • Reception setting information consists of information reception mode selection mr, information processing method selection tr, and information output format setting right selection dr.
  • Selection of information transmission mode ms indicates whether or not to transmit biometric information
  • selection of information processing method ts indicates whether or not to process biometric information at the time of transmission
  • selection of right to set information output format ds indicates whether the output format of the transmitted biometric information is set on the transmission side or on the reception side.
  • Selection of information reception mode mr indicates whether or not to receive biometric information
  • selection of information processing method tr indicates whether or not to process biometric information at the time of reception
  • selection of setting rights for information output format dr indicates whether the output format of the received biometric information is selected on the transmission side or on the reception side.
  • terminal B Upon receiving the biometric information transmission request from terminal A, terminal B changes the biometric information transmission / reception setting and transmits a response to terminal A.
  • the biometric information of user a is transmitted from terminal A to terminal B, and the biometric information of user b is transmitted from terminal B to terminal A.
  • Biometric information is stored in terminal A and terminal B, respectively.
  • terminal B When a connection termination request is transmitted from terminal A to terminal B, terminal B responds and communication ends.
  • step S1 the system control unit 9 7 of the terminal B, when starting communication with the terminal A, specifies information (for example, name, nickname, etc.) PID that identifies the user a of the terminal A that is the communication partner. get.
  • step S2 the system of terminal B The control unit 97 causes the information discriminating unit 1 1 1 to determine whether or not the voice information of the user a transmitted from the terminal A has been input, and waits until it is determined that it has been input. If it is determined in step S 2 that voice information has been input, the process proceeds to step S 3, and the system control unit 9 7 of terminal B sends the user a transmitted from terminal A to the feature extraction unit 1 1 2.
  • step S 4 the system control unit 97 of the terminal B causes the meaning extraction unit 1 13 to perform speech recognition.
  • step S5 the system controller 9 7 of the terminal B determines whether or not there is a phrase representing the emotion, state and its strength in the recognized speech, and the phrase representing the emotion, state and its strength. If it is determined that there is no, return to step S2 and repeat the subsequent processing.
  • the words and phrases that express emotions and states are as shown in Fig. 23, and the words and phrases that show strength are those shown in Fig. 24.
  • step S5 If it is determined in step S5 that there is a phrase indicating emotion, state, and intensity, the system control unit 97 of terminal B determines whether or not the subject of the recognized phrase is the user in step S6. That is, it is determined whether or not the recognized phrase is a phrase representing the emotion, state and strength of the user a. If it is determined that the subject is not the user, the process returns to step S2, and thereafter Repeat the process.
  • step S6 determines whether or not the voice of user a has been input for one phrase in step S7. Wait until it is determined that one phrase has been input. If it is determined in step S 7 that one phrase has been input, the system control unit 97 of terminal B proceeds to step S 8 and performs sampling processing of pulse information and body motion information in the feature extraction unit 1 1 2. Terminate.
  • pulse information and body motion information sampling processing may be performed by the feature extraction unit 1 1 2 of the terminal A, and the sampled result may be transmitted to the terminal B.
  • step S 9 the system control unit 9 7 of the terminal B causes the meaning extraction unit 1 1 3 to extract the emotion information E.
  • the emotion / state corresponding to the phrase “interesting” is interested, and the intensity corresponding to the phrase “little” is recognized as weak, and emotion information E As a result, “weak interest” is extracted.
  • step S 10 the system control unit 9 7 of the terminal B causes the feature extraction unit 1 1 2 to execute the generation process of the feature vector Vcl based on the pulse information of the user a, and then proceeds to step 11.
  • the pulse information corresponding to the information PID and emotion information E for identifying the individual is read from the storage unit 95.
  • the feature vector of the pulse information corresponding to the weak interest of the user a is read out.
  • step S 12 the system control unit 97 of terminal B adds the newly generated feature vector Vc 1 to the read feature vector to the learning unit 94, Toll distribution fvcl, distribution center vector V jt U Standard deviation vector ⁇ ⁇ ⁇ is recalculated, and the recalculated result is stored in storage unit 95 in step S 1 3.
  • the system control unit 97 of terminal B adds the newly generated feature vector Vc 1 to the read feature vector to the learning unit 94, Toll distribution fvcl, distribution center vector V jt U Standard deviation vector ⁇ ⁇ ⁇ is recalculated, and the recalculated result is stored in storage unit 95 in step S 1 3.
  • step S 14 the system control unit 9 7 of the terminal ⁇ ⁇ causes the feature extraction unit 1 1 2 to execute the generation process of the feature vector Vc 2 based on the body movement information of the user a. Then, the body movement information corresponding to the information PID for identifying the individual and the emotion information E is read from the storage unit 95. In this case, the feature vector of the body motion information corresponding to the weak interest of the user a is read out. Then, proceeding to step S 16, the system control unit 9 7 of the terminal B adds the newly generated feature vector Vc2 to the read feature vector to the learning unit 94 and adds a vector. Distribution fvc2, distribution center vector V i 2, standard deviation vector V (J 2 is recalculated, and the result of recalculation is stored in storage unit 95 in step S 17.
  • step S 3 the feature extraction unit 1 1 2 of terminal B reads the sampled pulse information, performs polarity determination processing described later in step S 3 2, proceeds to step S 33, and outputs TV output described later.
  • step S 3 4 Vmin and Vmax determination processing described later is performed.
  • the polarity determination process, the TV output process, and the Vmin and Vmax determination processes will be described with reference to FIGS.
  • step S 61 the feature extraction unit 1 1 2 of terminal B sets variable II to 1, and in step S 6 2 reads Vs (n).
  • Vs (n) When the waveform 21 1 shown in Fig. 19 is sampled with the period Tclk, the values of Vsl, Vs2, Vs3... Vsn are obtained.
  • the Vs (n) read here is Vsl when n is 1, and Vs2 when n is 2.
  • step S 63 the feature extraction unit 1 1 2 of the terminal B determines whether there is Vs (n). If it is determined that there is no Vs (n), the process ends. If it is determined in step S 63 that Vs (n) is present, in step S 64, the feature extraction unit 112 of the terminal B determines whether Vs (n) is smaller than the threshold ⁇ VthO. If it is determined that it is not less than VthO, the process proceeds to step S 65 to determine whether Vs (n) is greater than the threshold value VthO. If it is determined that it is not greater than VthO, step S 65 is performed. In 66, set Sig (n) to 1.
  • step S64 If it is determined in step S64 that Vs (n) is smaller than the threshold value ⁇ VthO, the feature extraction unit 1 1 2 of the terminal B sets ⁇ 1 to Sig (n). If it is determined in step S 65 that Vs (n) is larger than the threshold value VthO, the feature extraction unit 1 1 2 of terminal B sets 1 to Sig (n).
  • step S 67 the feature extraction unit 1 1 2 of the terminal ⁇ increments the value of n by 1, returns to step S 62, and repeats the subsequent processing.
  • Sig (n) indicating the polarity of the waveform. That is, when the waveform polarity is +, the value of Sig (n) is 1, and when the waveform polarity is 1, the value of Sig (n) is -1 and the polarity of the waveform is not +. When it is not one, that is, when the polarity is 0, the value of Sig (n) is 0.
  • step S 7 the feature extraction unit 1 1 2 of terminal ⁇ sets 2 to variable ⁇ and sets 1 to variable ⁇ . To do.
  • step S72 the feature extraction unit 1 1 2 of terminal B reads Sig (n) generated as a result of the polarity determination processing, and determines whether or not there is Sig (n) in step S73. If it is determined that there is no Sig (n), the process ends.
  • step S73 If it is determined in step S73 that there is Sig (n), the feature extraction unit 1 1 2 of terminal B reads Sig (n_l) in step S74, and in step S75, Sig (n ) And Sig (n_l) are equal to each other. If it is determined that Sig (n) and Sig (n-1) are equal, the process proceeds to step S76 and Sig (n) It is determined whether or not the value is ⁇ 1. If it is determined that the value of Sig (n) is not ⁇ 1, whether or not the value of Sig (n) is 1 is determined in step S78. If it is determined that the value of Sig (n) is not 1, the process proceeds to step S 80, the value of variable c is incremented by 1, and the process proceeds to step S 93.
  • step S76 If it is determined in step S76 that the value of Sig (n) is -1, the feature extraction unit 1 1 2 of terminal B increments the value of variable a by 1 in step S76. Proceed to step S93. If it is determined in step S 78 that: of Sig (n) is 1, the feature extraction unit 1 1 2 of terminal B increments the value of variable b by 1 in step S 79. Proceed to step S93.
  • step S 93 the feature extraction unit 1 1 2 of terminal B increments the value of n by 1, returns to step S 7 2 and repeats the subsequent processing.
  • step S75 if it is determined in step S75 that the values of Sig (n) and Sig (nl) are not equal, the feature extraction unit 1 1 2 of terminal B proceeds to step S81 and Sig (nl) If it is determined that the value of Sig (n-1) is not 1, the process proceeds to step S86 and whether the value of Sig (n-1) is 1 or not. If it is determined that the value of Sig (n_l) is not 1, the process proceeds to step S90, and the value of TvO (P) is set to c * Tclk.
  • step S 91 the feature extraction unit 1 1 2 of terminal B outputs TvO (P), resets the value of variable c to 0, and proceeds to step S 93.
  • step S 8 1 If it is determined in step S 8 1 that the value of Sig (n-1) is 1, the feature extraction unit 1 1 2 of terminal B proceeds to step S 8 2 and Tv- (P) Set the value to a * Tclk Then, go to step S83, output Tv- (P), reset the value of variable a to 0 in step S84, go to step S85, and ink the value of variable P by 1. Move to step S93.
  • step S 86 If it is determined in step S 86 that the value of Sig (n-1) is 1, the feature extraction unit 1 1 2 of terminal B proceeds to step S 8 7 and sets the value of Tv + (P) to b * Set to Tclk, proceed to step S88, output Tv + (P), reset the value of variable b to 0 in step S86, and proceed to step S93.
  • the value of a is incremented while the waveform polarity is 1, the value of b is incremented while the waveform polarity is +, and c while the waveform polarity is 0. : Is incremented.
  • a, b, or c is multiplied by the sampling period Tclk. Therefore, as shown in Fig. 20, the time when the waveform output becomes positive Tv + (1), ⁇ + (2), time for waveform output to be between threshold value + VthO and -VthO TvO (l), Tv0 (2), ⁇ 0 (3), and time for waveform output to be negative Tv- (1) and Tv- (2) are obtained.
  • step S 1 1 the feature extraction unit 1 1 2 of terminal B sets 2 to variable n and 1 to variable P. Then, proceed to step S 1 1 2, read Vs (n), and in step S 1 1 3, determine whether there is Vs (n), and if it is determined that there is no Vs (n) End the process.
  • step SI 1 3 If it is determined in step SI 1 3 that Vs (n) is present, the feature extraction unit 1 1 2 of terminal B proceeds to step S 1 1 4 and reads Vs (n-1), step S 1 1 5 In, set the value of Vs (n)-Vs (n-1) to ⁇ Vs (n-1), proceed to step S 1 16 and store the value of ⁇ Vs (n-1).
  • step S 1 1 7 the feature extraction unit 1 1 2 of terminal B determines whether or not the value of AVs (n ⁇ 1) is smaller than 0. If it is determined that the value is smaller than 0, step S 1 1 In step 8, set VSig (n) to -1 and if it is determined in step S 1 1 7 that it is not less than 0, set AVSig (n) to 1 in step S 1 1 9. Proceed to step S 1 20 to determine whether there is AVSig (nl), and if there is no AVSig (n-1) If yes, go to step S 1 2 7 and increment the value of n by 1 and return to step S 1 1 2.
  • step S 120 If it is determined in step S 120 that there is AVSig (n-1), the process proceeds to step S1 21 and the feature extraction unit 1 1 2 of terminal B reads AVSig (n-1). In step S 1 2 2, it is determined whether the value of AVSig (n) is equal to the value of AVSig (n-1). If it is determined that they are not equal, the process proceeds to step S 1 2 3, It is determined whether or not the value of Vs (n) is smaller than VthO. If it is determined that the value is not smaller than VthO, the process proceeds to step S 1 25, and Vs (n-1) is set to Vmax (P). Set, output Vraax (P), increment the value of P by 1, and go to step S 1 2 7.
  • step S 1 2 2 If it is determined in step S 1 2 2 that the value of AVSig (n) is equal to the value of AVSig (n ⁇ l), the feature extraction unit 1 1 2 of terminal B proceeds to step S 1 2 7.
  • step S 1 2 3 If it is determined in step S 1 2 3 that the value of Vs (n) is smaller than VthO, the feature extraction unit 1 1 2 of terminal B proceeds to step S 1 24 and Vs (nl) Is set, Vmin (P) is output, and the process proceeds to step S 1 2 7.
  • step S 3 5 the feature extraction unit 1 1 2 of terminal B sets the value of variable P to 1, and in step S 3 6, Tv + (P) or Tv ⁇ (0) If it is determined that there is Tv + (P) or Tv- (0), the process proceeds to step S 37 and sets Tppg + (P) to the value Tv + (P). 3 In 8, set the value Tv- ( ⁇ ) to Tppg- ( ⁇ ⁇ ⁇ ⁇ ).
  • terminal B feature extraction section 1 1 2 adds Tppg + (P) and Tppg ⁇ (P) to Tppgi (P). Then, the process proceeds to step S40, the value of the variable P is incremented by 1, the process returns to step S36, and the subsequent processing is repeatedly executed.
  • Tv + (1), Tv + (2), Tv- (1), and Tv- (2) are obtained as a result of the Tv output process in step S3 3, when the value of variable P is 3, In S 3 6, It is determined that there is no Tv + (P) or Tv- (P), and the feature extraction unit 1 1 2 of terminal B proceeds to step S 4 1 and averages Tppg +, Tppg-, Tppgi, Tppg + m, Tppg -m, Tppgim is calculated. In this case, Tppg + m, Tppg-m, and Tppgim are calculated as follows.
  • Tppg + m (Tppg + (l) + Tppg + (2)) / 2
  • Tppg ⁇ m (Tppg- (1) + Tppg- (2)) / 2
  • Tppgim (Tppgi (1) + Tppgi (2)) / 2
  • step S 4 2 the feature extraction unit 1 1 2 of terminal B sets the value of variable P to 1, and whether or not there is Vmax (P) or Vmin (P) in step S 4 3. If it is determined that there is Vmax (P) or Vrain (P), the process proceeds to step S44, the value Vmax (P) is set to Appg + (P), and in step S45, Appg- Set the value Vmin (P) to (P). Then, the process proceeds to step S 46 and increments the value of the variable P by 1. Then, the process returns to step S 43 and repeats the subsequent processes.
  • step S3 Assuming that Vmax (l), Vraax (2) N Vrain (l) and Vtnin (2) are obtained as a result of the Vmin and Vmax judgment processing in step S3 4, when the value of variable P becomes 3, step S 4 In step 3, it is determined that there is no Vmax (P) or Vtnin (P), and the feature extraction unit 1 1 2 of terminal B proceeds to step S 4 7 and averages Appg + and Appg ⁇ , Appg + m , Calculate Appg-m. In this case, Appg + m and Appg-m are calculated as follows.
  • Appg + ra (Appg + (l) + Appg + (2)) / 2
  • Appg-ra (Appg- (l) + Appg- (2)) / 2
  • the unit 1 1 2 generates a feature vector Vn (Tppg + m, Tppg-m, Tppgim, Appg + ra, Appg-m).
  • Figure 25 shows the pulse waveform 24 1.
  • Tppg + indicates the time when the output of waveform 24 1 is positive
  • Tppg- indicates the time when the output of waveform 24 1 is negative
  • Tppgi indicates the time for one pulse
  • Appg + The peak value of the pulse waveform at Tp P g + and Appg ⁇ is the peak value of the pulse waveform at Tppg ⁇ .
  • the characteristic vector Vc 1 of the pulse information corresponding to the weak interest of the user a is generated.
  • step S 1 4 the feature extraction unit 1 1 2 of terminal B reads the sampled body motion information. Then, the feature extraction unit 1 1 2 of terminal B performs the polarity determination processing described with reference to FIG. 16 in step S 1 4 2, and in step S 1 4 3, described with reference to FIG. Tv output processing is performed, and Vmax and Vmin judgment processing is performed in step S144. Then, the process proceeds to step S 1 4 5, and the feature extraction unit 1 1 2 of terminal B sets 1 to variable P. In step S 1 46, the feature extraction unit 1 1 2 of terminal B reads the value of ⁇ (step S 1 1 6 in FIG. 18) stored in the Vmax and Vmin determination processing.
  • the waveform of the body movement information is the waveform 2 6 1 shown in Figure 26. Therefore, when the value of ⁇ is 1, 1 VI, and when the value of ⁇ is 2, 2 V so that it becomes AV2. (P) is read. Then, in step S 1 4 7, the feature extraction unit 1 1 2 of terminal ⁇ determines whether or not there is ⁇ V (P), and if it is determined that there is ⁇ ( ⁇ ), step S 1 4 Proceed to step 8, set the value of I ⁇ V (P)
  • AV (P) indicates the distance traveled by user a during time Tclk
  • Vel (P) indicates the speed at which user a travels
  • ⁇ AV indicates that user a travels. Indicates the total distance.
  • step S 1 4 7 If it is determined in step S 1 4 7 that there is no AV (P), the feature extraction unit 1 1 2 of terminal B sets the value of ⁇ AV in D in step S 1 5 1, and the average speed Vel Calculate the value Velm, go to step S 1 5 2, feature vector Vc2
  • terminal B generates and accumulates a feature vector from the pulse information and body motion information for user b.
  • the learning result 2 8 1 relating to pulse information and the learning result 2 8 2 relating to body motion information as shown in FIG. Accumulated in b.
  • terminal A can also store learning results related to pulse information and learning results related to body motion information separately for user a and user b.
  • biometric information accumulation process After the biometric information accumulation process described above is repeated and sufficient biometric information is accumulated, the user's emotion, state, and intensity can be identified based on the biometric information.
  • step S 1 71 the system control unit 9 7 of the terminal B obtains an information PID that identifies the user a of the terminal A that is the communication partner at the start of communication with the terminal A.
  • step S 1 7 2 the system control unit 9 7 of the terminal B causes the information discriminating unit 1 1 1 to determine whether or not the voice information of the user a transmitted from the terminal A has been input. Wait until it is determined that it has been done. If it is determined that the voice information has been input, the process proceeds to step S 1 7 3, and the system control unit 9 7 of terminal B sends the feature extraction unit 1 1 2 to the user a who has been transmitted from terminal A. Start sampling of pulse information and body movement information. Then, the process proceeds to step S 1 74, and the system control unit 97 of the terminal B causes the meaning extraction unit 1 13 to perform speech recognition.
  • step S 1 75 the system control unit 9 7 of the terminal B determines whether or not the voice of the user a has been input for one phrase, and waits until it is determined that one phrase has been input.
  • step S 1 75 If it is determined in step S 1 75 that one phrase has been input, the system control unit 9 7 of terminal B proceeds to step S 1 76, and the feature extraction unit 1 1 2 stores pulse information and body motion information. The sampling process is terminated.
  • the pulse information and body motion information sampling processing may be performed by the feature extraction unit 1 1 2 of the terminal A, and the sampled result may be transmitted to the terminal B. Then, proceeding to step SI 7 7, the system control unit 9 7 of the terminal B causes the feature extraction unit 1 1 2 to execute a feature vector Vcl generation process based on the pulse information of the user a.
  • step 1 78 based on the body movement information of user a, the characteristic vector Vc 2 generation processing is executed, and the process proceeds to step S 1 79, where the learning unit 9 4 has the emotion, state,
  • step S 1 80 the process of specifying the emotion, state, and intensity of Vc2 is executed, and the process proceeds to step S 1 8 1, where the output of the specific result and the recalculation process are performed. Let it run.
  • step S 2 0 the feature extraction unit 1 1 2 of terminal B reads the sampled pulse information, and in step S 2 0 2 performs the polarity determination processing described with reference to FIG.
  • step S 2 0 3 the TV output process described with reference to FIG. 17 is performed, and in step S 2 0 4, the Vmin and Vmax determination processes described with reference to FIG. 1 8 are performed.
  • step S 2 0 5 of FIG. 3 the feature extraction unit 1 1 2 of terminal B sets the value of variable P to 1, and in step S 2 0 6, Tv + (P) or Tv ⁇ (0) is If it is determined that there is ⁇ + ( ⁇ ) or Tv- (0), proceed to step S2 0 7, and set Tpp g + (P) to the value Tv + (P). In step S 2 0 8, the value Tv- ( ⁇ ) is set in Tppg- ( ⁇ ). In step S 2 0 9, terminal B feature extraction section 1 1 2 adds Tppg + (P) and Tppg-(P) to Tppgi (P). Then, the process proceeds to step S 2 10, the value of variable P is incremented by 1, and the process returns to step S 2 0 6 to repeat the subsequent processing.
  • step S 2 0 6 If it is determined in step S 2 0 6 that there is no Tv + (P) or Tv- (P), the feature extraction unit 1 1 2 of terminal B proceeds to step S 2 1 1 and T PP g +, Tppg- , Calculate the average value of Tppgi, Tppg + m, Tppg-m, and Tppgitn.
  • step S 2 1 2 the feature extraction unit 1 1 2 of terminal B sets the value of variable P to 1, and whether or not Vmax (P) or Vrain (P) exists in step S 2 1 3. no If it is determined that there is Vmax (P) or Vmin (P), the process proceeds to step S 21 4 to set the value Vmax (P) to Appg + (P). -Set the value Vmin (P) to (P). Then, the process proceeds to step S 2 1 6, the value of variable P is incremented by 1, the process returns to step S 2 1 3, and the subsequent processing is repeated and executed.
  • step S 21 3 it is determined that there is no Vtnax (P) or Vmin (P), and the feature extraction unit 1 1 2 of terminal B proceeds to step S 21 7 and averages Appg + and Appg ⁇ , Appg + m , Appg-m Calculate.
  • step S 2 1 8 the process proceeds to step S 2 1 8, and the feature extraction unit 1 1 2 of the terminal B generates a feature quantity ⁇ Nore Vcl (Tppg + m, Tppg-m, Tppgim, Appg + m, Appg-m). .
  • the characteristic vector Vcl of the pulse information of the user a is generated.
  • step S 2 3 the feature extraction unit 1 1 2 of terminal B reads the sampled body motion information. Then, the feature extraction unit 23 2 of the terminal B performs the polarity determination process described with reference to FIG. 16 in step S 2 3 2, and the Tv described with reference to FIG. The output process is performed, and the Vmax / Vmin determination process described with reference to FIG. Then, proceeding to step S 235, the feature extraction unit 1 1 2 of terminal B sets 1 to variable P. In step S 236, the feature extraction unit 1 1 2 of terminal B reads the value of (V (step S 1 1 6 in FIG. 18) stored in the Vmax and Vmin determination processing. In step S 237, the feature extraction unit 1 1 2 of terminal B determines whether or not ⁇ V (P) exists.
  • step S 238 Vel Set the value of 1 ⁇ V (P) I / Tclk to (P), set the value of + AV + I ⁇ V (P) I to ⁇ in step S 239, and set the value of P in step S 240 Increment by 1 and return to step S236 to repeat the subsequent processing. If it is determined in step S 2 3 7 that there is no AV (P), terminal ⁇ ⁇ feature extraction unit 1 1 2 sets ⁇ AV straight to D in step S 24 1 and averages Vel Calculate Velm and go to step S 2 52 to generate feature vector Vc2 (Velra, D).
  • This process is executed by the learning unit 94 of the terminal B.
  • step S 26 1 this process is performed by the learning unit 94 of the terminal B, the distribution of iVcl, the feature vector distribution of the pulse information corresponding to the user a stored in the storage unit 95, and the center of the distribution. Read out the vector vi, the standard deviation vector ⁇ of the distribution.
  • step S 2 62 the learning unit 94 of terminal B sets variable Q to 1 and proceeds to step S 2 6 3, where it is generated by vector VjUl (Q) and step S 1 7 7 (Fig. 2 8).
  • the inner product value of the generated feature vector Vcl is calculated, and V 1 (Q) is stored in correspondence with the inner product value.
  • step S 2 6 4 incremented by Q value ⁇ 1, and whether or not all emotion information has been calculated in step 2 6 5, that is, 3 6 kinds of central vectors VjU 1, It is determined whether or not the inner product value has been calculated. If it is determined that not all emotion information has been calculated, the process returns to step S 2 63 and the subsequent processing is repeatedly executed.
  • the storage unit (not shown) in the learning unit 94 of terminal B has Data is stored.
  • the learning unit 94 of terminal B sorts the data in descending order of the inner product value.
  • step S 2 6 7 the learning unit 94 of terminal B sets 1 to the variable R, and in step S 2 6 8, whether or not data has been read for all emotion information. If it is determined that data has not been read for all emotion information, the process proceeds to step S269 and the sorted data is read.
  • the center vector ⁇ 1-29 of the feature vector corresponding to “Stable.Medium” having the largest inner product value is read out first.
  • step S 2 70 the learning unit 94 of the terminal ⁇ sets 1 to the variable m, and proceeds to step S 27 1, where Vjt / l (R) tn_V l (R) m ⁇ Vclm ⁇ VjUl (R) m + Determine whether the condition of V l (R) m is satisfied.
  • V n (R) m is the vector
  • the feature vector of pulse information consists of five components: Tppg + m, Tppg-m, Tppgim, Appg + ra, and Appg-m.
  • Tppg + m the Tppg + m components of V l (R), V ⁇ 1 (R), and Vcl vectors are extracted and processed.
  • step S 271 If it is determined in step S 271 that V l (R) m— VCTl (R) ni ⁇ Vclm ⁇ V // l (R) m + ⁇ ⁇ is not satisfied, the learning unit 94 of terminal ⁇ Proceeding to step S 276, the value of R is incremented by 1, and the process returns to step S 268 to repeat the subsequent processing.
  • step S 27 1 If it is determined in step S 271 that V l (R) m— VCTl (R) ni ⁇ Vclm ⁇ V // l (R) m + ⁇ ⁇ is not satisfied, the learning unit 94 of terminal ⁇ Proceeding to step S 276, the value of R is incremented by 1, and the process returns to step S 268 to repeat the subsequent processing.
  • step S 27 1 If it is determined in step S 271 that V l (R) m— VCTl (R) ni ⁇ Vclm ⁇ V // l (R) m + ⁇ ⁇ is not satisfied,
  • step S272 M is incremented by 1, and the process proceeds to step S 273, where it is determined whether the value of m is equal to 6, and if it is determined that the value of m is not equal to 6, step S 2 71 Return to, and repeat the subsequent processing.
  • step S 273 If it is determined in step S 273 that the value of m is equal to 6, that is, all five components constituting the V 1 (R), V 1 (R), and Vcl vectors are all VjW l ( R) m— If it is determined that the condition of l (R) m + V l (R) m is satisfied, the learning unit 94 of terminal B proceeds to step S274, and Vcl belongs to the emotion information E1 corresponding to R. Identify that When R is 1, the emotion information E1 corresponding to R is “Stable ⁇ Medium”. If it is determined in step S 2 6 8 that data has been read for all emotion information, the learning unit 9 4 of terminal B terminates the process with the emotion, state, and intensity of Vcl being unidentifiable. .
  • Fig. 35 shows the feature vector of pulse information corresponding to each emotion information of user a. This figure shows Tppg + tn axis, Tppg-m axis, Tppgim axis, Appg + m axis,
  • the feature vector 3 8 1 (Vcl) generated in step S 1 7 7 in Fig. 2 is the distribution of the feature vector corresponding to “medium” medium 3 8 3 central vector 3 8 2
  • the feature vector indicating “stable” is identified.
  • step S 2 9 1 the learning unit 9 4 of the terminal B transmits the distribution vector ff2 of the feature vector of the body motion information corresponding to the user a stored in the storage unit 95, the center vector V of the distribution Read out the standard deviation vector ⁇ ⁇ 2 of jt / 2.
  • step S 2 9 2 the learning unit 9 4 of terminal B sets 1 to variable Q and proceeds to step S 2 9 3, where vector V / i 2 (Q) and step S 1 7 8 (Fig. 2 8) Calculate the inner product value of the feature vector Vc2 generated in step 8), and store V 2 (Q) corresponding to the inner product value. Then, the process proceeds to step S 2 94 and increments the value of Q by 1.
  • step 2 9 5 whether or not all emotion information has been calculated, that is, 3 6 types of central vectors V / 2, It is determined whether or not the inner product value has been calculated. If it is determined that not all emotion information has been calculated, the process returns to step S293 and the subsequent processing is repeated.
  • the storage unit (not shown) in the learning unit 94 of terminal B stores the data as shown in FIG. Is remembered.
  • step S296 the learning unit 94 of the terminal B sorts the data in descending order of the inner product value.
  • step S 2 9 7 the learning unit 94 of terminal B sets 1 to the variable R, and in S 298 8 determines whether or not data has been read for all emotion information, and for all emotion information. If it is determined that the data has not been read, proceed to step S 299 to read the sorted data.
  • the center vector Vj «2-29 of the feature vector corresponding to“ stable 'medium ”having the largest inner product value is read out first.
  • step S 2 70 the learning unit 94 of terminal B sets 1 to the variable, and proceeds to step S 2 7 1, where V 2 (R) m—V 2 (R) m ⁇ Vc2m ⁇ V 2 (R) Judge whether the condition of ra + V 2 (R) m is satisfied.
  • Vj «2 (R) m is a vector
  • V 2 (R) and VCT2 (R) m and Vc2m represent the m-th component of vectors ⁇ 2 and Vc2, respectively.
  • the feature vector of body motion information is composed of two components, Velm and D, as described above. When the value of m is 1, the Velm component of each vector of V 2 (R), Va2 (R), and Vc2 is extracted and processed.
  • step S301 V 2 (R) m—VCT2 (R) m ⁇ Vc2tn ⁇ V 2 (R) m +
  • step S 30 When it is determined that the condition of V and 2 (R) tn is not satisfied, the learning unit 94 of terminal B proceeds to step S 30 6, increments the value of R by 1, and returns to step S 29 8. The subsequent processing is executed repeatedly.
  • step S 30 1
  • step S 302 Go to step S, increment the value of m by 1 and go to step S303 to determine whether the value of m is equal to 3, and if it is determined that the value of m is not equal to 3, step S 30 Return to 1 and repeat the following process.
  • step S 3 If it is determined in step S 3 0 3 that the value of m is equal to 3, that is, all the two components constituting each vector of V 2 (R), Va2 (R), Vc 2 are ⁇ 2 ) 1 1 1-2 (1 111 ⁇ ⁇ 02 1 11 ⁇ ⁇ 2 (] 3 ⁇ 4 111 + ⁇ 2 (1 If it is determined that the condition of 111 is satisfied, the learning unit of terminal B 9 4 Goes to step S 27 4 and identifies that Vc2 belongs to emotion information E2 corresponding to R. When R is 1, emotion information E2 corresponding to R is “stable / medium”. .
  • step S 2 98 If it is determined in step S 2 98 that data has been read for all emotion information, the learning unit 94 of terminal B determines that the emotion, state, and intensity of Vc2 cannot be specified, and ends the process.
  • Fig. 38 shows the feature vector of body motion information corresponding to each emotion information of user a. This figure is shown as a two-dimensional space consisting of Velm axis and D axis.
  • Fig. 2 Feature vector generated in step S 1 7 8 in Fig. 40 40 1
  • step S 3 2 the learning unit 94 of terminal B identifies whether the emotion information El specified by Vcl is equal to the emotion information E2 specified by Vc2, and determines that E1 and E2 are not equal. If so, the process proceeds to step S 3 2 2, and the processing result is corrected assuming that the feature vector Vc2 of the body motion information generated in step S 1 78 (FIG.
  • E1 is emotion information specified by the feature vector Vcl generated based on pulse information
  • E2 is emotion information specified by body movement information
  • E1 and E2 may be different possible.
  • a specific result is selected based on a vector having more components, that is, a vector having a larger number of dimensions. That is, the emotion information El specified by Vcl that is a five-dimensional vector is selected, and the processing result is corrected assuming that Vc2 that is a two-dimensional vector indicates emotion information E1.
  • step S 3 2 3 the learning unit 9 4 of terminal B outputs the specific result to the output control unit 1 1 4, and in step S 3 2 4, the pulse information corresponding to the emotion information E1 of user a is Distribution of feature vectors fvcl, distribution center vector V l, standard deviation vector ⁇ of distribution, emotion information of user a E1, distribution of feature vectors of body motion information corresponding to f1, Recalculate and accumulate the distribution center vector VjU2 and the standard deviation vector ⁇ 2. That is, the feature vectors Vcl and Vc2 generated in step S 1 7 7 and step S 1 7 8 (Fig. 2 8) represent the user's “stable” medium stored in the storage unit.
  • emotion, state, and intensity are specified from pulse information and body motion information.
  • the information power of the feature vector specified for emotion, state, and intensity is newly accumulated.
  • terminal ⁇ generates feature vector notes Vcl and Vc2 from the pulse information and body motion information of user a transmitted from terminal ⁇ , and identifies emotion, state, and intensity
  • terminal B can generate a feature vector from the pulse information and body motion information about user b, and can specify the emotion, state, and intensity thereof.
  • terminal A can also identify the emotions, states, and strengths of user a and user b.
  • step S 341 the system control unit 97 determines whether output information has been selected, and waits until it is determined that it has been selected.
  • the output information is selected by, for example, the user selecting a menu displayed on the terminal display. There are four types of menus that can be selected by the user: “specific results”, “information based on features”, “waveform information”, and “stored information”. If it is determined in step S 3 4 1 that output information has been selected, the system control unit 97 proceeds to step S 3 4 2, determines whether or not a specific result has been selected, and selects the specific result. If it is determined, in step S 3 4 3, the 2-bit selection information 0 0 corresponding to the specific result is transmitted to the output control unit 1 14.
  • step S 3 4 4 the output control unit 1 4 4 outputs the identification result of emotion, state, and intensity. For example, the word “It seems to indicate stability in the middle” is output on the terminal display.
  • step S 3 4 2 If it is determined in step S 3 4 2 that the specific result is not selected, the system control unit 97 proceeds to step S 3 45 and determines whether or not information based on the feature amount is selected. If it is determined that the information based on the feature value is selected, the process proceeds to step S 3 46 and the 2-bit selection information 0 1 corresponding to the information based on the feature value is transmitted to the output control unit 1 1 4 To do.
  • step S 3 4 7 the output control unit 1 1 4 acquires the feature values (Tppg +, Tppg-, Tppgi, Appg +, Appg-) from the feature extraction unit 1 1 2, and proceeds to step S 3 4 8.
  • a light presenter drive signal is generated.
  • the output amplitude is set to Appg +
  • the output ON time is set to Tppg +
  • the output OFF time is set to Tppg- to generate a sine wave signal as shown in FIG.
  • the process proceeds to step S 3 4 9, and the output control unit 1 1 4 drives the light presentation unit 1 9 2.
  • step S 3 5 the output control unit 1 1 4 acquires the feature value (Vel, ⁇ ⁇ ) from the feature extraction unit 1 1 2, proceeds to step S 3 5 1, and sets the moving speed of the moving object to Vel A drive signal with a movement distance AV is generated. Then, the process proceeds to step S 3 5 2 to drive the moving object 1 5 2.
  • step S 3 45 determines whether the information based on the feature value is not selected. If it is determined in step S 3 45 that the information based on the feature value is not selected, the system control unit 97 determines whether the waveform information is selected in step S 3 5 3, If it is determined that the waveform information is selected, the 2-bit selection information 10 corresponding to the waveform information is transmitted to the output control unit 1 14. In step S 3 5 6, the output control unit 1 1 4 receives the pulse sampled from the feature extraction unit 1 1 2. Beat information is acquired, a waveform signal is generated, and the light presenting unit 1 9 2 is driven in step S 3 5 7.
  • step S 3 5 8 the output control unit 1 1 4 acquires the pulse information sampled from the feature extraction unit 1 1 2 and generates a waveform signal.
  • step S 3 5 9 the moving object 1 5 2 Drive.
  • step S 3 5 3 When it is determined in step S 3 5 3 that the waveform information is not selected, the system control unit 97 proceeds to step S 3 60 and determines whether or not the stored information is selected. If it is determined that it has been selected, the process proceeds to step S 3 61, and 2-bit selection information 0 1 corresponding to the stored information is transmitted to the output control unit 1 1 4.
  • step S 3 61 When stored information is selected, a further submenu is displayed on the terminal display, allowing the user to select which stored information is to be output. That is, information types infl and inf2, information PID for identifying an individual, and emotion information E are selected, such as pulse information and body motion information. For example, inf l is pulse information, inf2 is body motion information,
  • step S 3 62 the system control unit 9 7 determines whether or not the information types inf l and inf 2, the information PID that identifies the individual, and the emotion information E are selected, and until it is determined that they are selected. stand by.
  • step S 3 6 3 the system controller 9 7 generates (inf l, inf 2, P ID, E) information based on the information selected by the user, and transmits it to the output controller 1 1 4. .
  • step S 3 6 the output control unit 1 1 4 acquires the central vector of pulse information and the central vector of body motion information from the storage unit 95 based on (inf l, inf2, PID, E). To do.
  • the central vector (Velra, D) of the feature vector distribution of body motion information corresponding to “strong” of a is obtained.
  • the output control unit 1 14 generates a light presenting unit drive signal based on the center vector Vjl 1.
  • the output amplitude is set to Appg +
  • the output ON time is set to Tppg +
  • the output OFF time is set to Tppg-
  • a sine wave 4 4 1 signal as shown in Fig. 4 3 is generated.
  • the presenter 1 9 2 is driven three times based on the drive signal.
  • step S 3 6 6 the output control unit 1 1 4 generates a drive signal with the moving speed of the moving object as Vel and the moving distance as D based on the central vector V 2, step S In 3 6 7, the moving object 1 5 2 is driven. If it is determined in step S 3 60 that the stored information is not selected, the system control unit 97 proceeds to step S 3 68, executes error processing, and ends the processing.
  • the user can display and recognize the emotion, state, and intensity determined from the biological information.
  • you can experience biological information by blinking light or moving an object.
  • FIG. 44 shows a configuration example of the second information processing apparatus of the present invention.
  • the information processing apparatus can be applied to a personal computer or the like.
  • the information processing apparatus includes an input unit 3 0 1 that receives input of language information and keyboard vibration information, a processing unit 3 0 3 that processes information input from the input unit 3 0 1, and an output from the processing unit 3 0 3 Learning unit that performs learning and identification based on the feature information and emotion information that has been recorded, learning information that is output from learning unit 30 and storage unit that accumulates specific information 3 0 5, processing unit 3 Based on the output information output from 03, an output unit 30 02 for outputting information, a communication unit 30 06 for performing communication, and a system control unit 30 07 for controlling each unit are provided.
  • the processing unit 30 3 includes an information discriminating unit 3 2 1 for separating information input from the input unit 30 1 into language information or keypad vibration information, and a feature for extracting feature information from the keyboard vibration information. Extraction unit 3 2 2, semantic extraction unit 3 2 3 that extracts emotion information from language information, and output control unit 3 2 4 that outputs output information to output unit 3 0 2 are provided. Yes.
  • the communication unit 30 06 is provided with an information transmission unit 3 2 5 for transmitting information and an information reception unit 3 26 for receiving information.
  • FIG. 45 shows a configuration example of the input unit 3 0 1.
  • it consists of a keypad 3 4 1, a vibration sensor 3 4 2 that detects vibration when the user presses the keyboard, and a power amplifier 3 4 3 that amplifies the signal from the vibration sensor 3 4 2 .
  • FIG. 46 shows a configuration example of the output unit 302.
  • a vibration motor 36 2 a vibration presentation unit 3 6 2 that vibrates based on a predetermined signal
  • a power amplifier unit 3 61 that drives the vibration presentation unit are configured.
  • Information processing device that user a has is terminal A
  • information processing device that user b has is terminal B
  • user a and user b communicate with each other using their respective terminals Information is sent and received according to the procedure shown in Figure 47.
  • terminal A sends a connection request to terminal B
  • terminal B sends a connection response to terminal A.
  • text information such as mail and chat is sent and received between terminal A and terminal B.
  • terminal A initializes transmission / reception of vibration information (in this example, vibration when the user presses the keyboard), and sends a transmission / reception request to terminal B.
  • vibration information in this example, vibration when the user presses the keyboard
  • terminal B Upon receiving the vibration information transmission request from terminal A, terminal B changes the vibration information transmission / reception setting and transmits a response to terminal A.
  • the vibration information of the user a is transmitted from the terminal A to the terminal B, and the vibration information of the user b is transmitted from the terminal B to the terminal A. Vibration information is stored in terminal A and terminal B, respectively.
  • terminal B When a connection termination request is transmitted from terminal A to terminal B, terminal B responds and communication ends.
  • the system controller 3 0 7 of the terminal B specifies information (for example, name, nickname, etc.) that identifies the user a of the terminal A as the communication partner at the start of communication with the terminal A in step S 3 8 1. Get the PID.
  • the system control unit 30 07 of the terminal B causes the information discriminating unit 3 2 1 to determine whether or not a key input has been made from the keyboard of the terminal A, and until it is determined that the input has been made. stand by.
  • step S 3 8 2 If it is determined in step S 3 8 2 that the key input has been made, the process proceeds to step S 3 8 3, where the system control unit 3 0 7 of terminal B has been transmitted from terminal A to the feature extraction unit 3 2 2. The sampling processing of vibration information when the user a hits the keyboard is started. Then, the process proceeds to step S 3 84 and the system control unit 30 07 of terminal B causes the meaning extraction unit 3 23 to analyze the input character information.
  • step S 3 85 the system control unit 9 7 of the terminal B determines whether or not the analyzed character information includes words representing emotion, state, and intensity, and the emotion, state, and If it is determined that there is no word representing the strength, the process returns to step S 3 82 and the subsequent processing is repeated.
  • the phrase representing the emotion / state is as shown in FIG. 23, and the phrase indicating the strength is as shown in FIG.
  • step S 3 85 If it is determined in step S 3 85 that there is a phrase indicating emotion, state, and intensity, the system controller 3 0 7 of terminal B determines the subject of the recognized phrase in step S 3 8 6. Determines whether or not the user is a user, that is, whether or not the parsed word is a word that represents the emotion, state, and strength of user a, and if the subject is not a user, Return to step S 3 8 2 and repeat the subsequent processing. If it is determined in step S 6 that the subject is a user, the system control unit 30 07 of terminal B determines whether or not character information for one phrase has been input in step S 3 8 7. And wait until it is determined that one phrase has been entered. If it is determined in step S 3 8 7 that one phrase has been input, the system control unit 30 07 of terminal B proceeds to step S 3 8 8, and the feature extraction unit 3 2 2 The information sampling process is terminated.
  • the sampling process of the vibration information when the keyboard is pressed may be performed in the feature extraction unit 3 2 2 of terminal A, and the sampled result may be transmitted to terminal B. Then, the process proceeds to step S 3 89 and the system control unit 30 07 of the terminal B extracts the emotion information E by the semantic extraction unit 3 23.
  • step S 3 90 the system control unit 30 07 of the terminal B generates a feature vector Vc based on the pulse information of the user a in the feature extraction unit 3 2 2, and proceeds to step 3 9 1,
  • the vibration information corresponding to the information PID and emotion information E for identifying the individual is read out from the storage unit 300.
  • the characteristic vector of the vibration information corresponding to the strong pleasure of the user a is read out.
  • the process proceeds to step S 39 2, and the system control unit 30 07 of terminal B adds the newly generated feature vector Vc to the read feature vector to the learning unit 30 4.
  • the vector distribution fvc, the distribution center vector V ⁇ , and the standard deviation vector ⁇ are recalculated, and the recalculated result is stored in the storage unit 3105 in step S393.
  • step S 4 0 the feature extraction unit 3 2 2 of terminal B reads the sampled vibration information, and then in step S 4 0 2, as in the first embodiment, The polarity determination process of FIG. 16 is performed, and the process proceeds to step S403, the TV output process of FIG. 17 is performed, and the Vmin, Vmax determination process of FIG. 18 is performed in step S404.
  • the waveform of vibration information at the time of keyboard pressing is as shown in the waveform 4 91 shown in Fig. 54.
  • This waveform 4 9 1 shows the parts that vibrate finely when the user presses the key 4 9 2 and 4 9 4 and the part that does not vibrate because the user does not touch the key 4 9 3 4 9 5 exists.
  • Sampling the finely vibrating parts 4 9 2 and 4 9 4 and performing polarity judgment processing and TV output processing outputs such as Tv +, TvO, Tv-, ⁇ , ⁇ +.
  • parts 4 9 3 and 4 9 5 that hardly vibrate are sampled, and polarity judgment processing and TV output processing are performed, only TvO is output, and this ⁇ is a fairly large value. Therefore, when a TvO smaller than the threshold Th, which is a predetermined time, is output, the user presses the key, and when a TvO greater than Th is output, the user does not press the key. I understand.
  • step S 4 0 5 of FIG. 52 the feature extraction unit 3 2 2 of terminal B sets 1 to variables n and P, and proceeds to step S 40 6, whether TvO (P) is greater than the threshold Th or not. If Tv0 (P) is determined not to be greater than Th, go to step S 4 0 7 and set Tstr (n) + Tv + (P) + Tv- (P) to Tstr (n) To do. The initial value of Tsr (n) is zero.
  • step S 4 0 8 the feature extraction unit 3 2 2 of terminal B determines whether or not Vmax (P) is greater than Imax (n). The initial value of Imax (n) is 0. If it is determined in step S 40 8 that Vmax (P) is greater than Imax (n), the feature extraction unit 3 2 2 of terminal B proceeds to step S 4 0 9, and Vmax (P ) Is set, the value of P is incremented by 1 in step S 4 10, the process returns to step S 406, and the subsequent processing is repeatedly executed. If it is determined in step S 4 0 8 that it is not greater than Vmax (P) force S, Imax (n), the process of step S 4 0 9 is skipped.
  • step S 4 0 6 If it is determined in step S 4 0 6 that TvO (P) is greater than Th, the feature extraction unit 3 2 2 of terminal B proceeds to step S 4 1 1 and sets TvO (P) to Tint (n). set P value is incremented by 1, and feature vector Vcl (Tstr (n),
  • Tint (n), Imax (n)) is generated.
  • step S 4 1 3 the feature extraction unit 3 2 2 of terminal B determines whether there is TvO (P). If it is determined that there is ⁇ ( ⁇ ), the process proceeds to step S 4 1 4. , Increment the value of ⁇ by 1, return to step S 4 0 6 and repeat the subsequent processing.
  • step S 4 1 3 If it is determined in step S 4 1 3 that there is no ⁇ ( ⁇ ), the terminal ⁇ feature extraction unit 3 2 2 ends the process.
  • Tstr (l) 5 1 1, Tint (l) 5 1 2, Tstr (2) 5 1 3, Tint (2) 5 1 4, Tstr (3) 5 1 5, Tint (3) 5 1 6, Tstr (4) 5 1 7, Tint (4) 5 1 8, Tstr (5) 5 1 1, Tint (5) 5 1 2 is obtained.
  • Tstr (l) to Tstr (5) indicate the time when the key is pressed by the user, and Tint (1) to Tint (5) indicate the interval at which the key is pressed. In this example, you can see that the key was pressed (keystroke) five times.
  • Imax (l) to Iraax (5) are the maximum vibration strengths at the 1st to 5th keystrokes, respectively.
  • terminal B has explained the process of generating and storing feature vectors from vibration information when the keyboard of user a sent from terminal A is pressed. Similarly, terminal B is Generate and store feature vectors from the vibration information at the time of keystroke b. As a result, the learning result 4 61 on the keyboard vibration information as shown in Fig. 53 is stored in the storage unit 95 of terminal B separately for user a and user b.
  • terminal A can also store learning results related to keyboard vibration information separately for user a and user b. After the vibration information accumulation process described above is repeated and the vibration information is sufficiently accumulated, the user's emotion, state, and intensity can be specified based on the vibration information.
  • step S 431 the system control unit 30 07 of the terminal B obtains information PID for identifying the user a of the terminal A that is the communication partner at the start of communication with the terminal A.
  • step S 4 3 2 the system control unit 30 07 of the terminal B causes the information discrimination unit 3 21 to determine whether or not the key input information of the user a transmitted from the terminal A has been input. Wait until it is determined that it has been input.
  • step S 4 3 2 If it is determined in step S 4 3 2 that the key input information has been input, the process proceeds to step S 4 3 3, and the system control unit 9 7 of terminal B transmits to the feature extraction unit 3 2 2 from terminal A. The sampling processing of the vibration information when the user a who hits the keyboard is pressed is started. Then, the process proceeds to step S 4 3 4, and the system control unit 30 07 of terminal B causes the meaning extraction unit 3 2 3 to determine whether or not one phrase has been input, and until it is determined that one phrase has been input. stand by. In step S 4 3 4, if it is determined that one phrase has been input, the system control unit 3 0 7 of the terminal B sends the keyboard extraction key of the user a transmitted from the terminal A to the feature extraction unit 3 2 2. End the sampling process of the vibration information.
  • step S 4 3 6 the system control unit 30 07 of terminal B causes the feature extraction unit 1 1 2 to execute generation processing of the feature vector Vch, proceeds to step S 4 3 7, and proceeds to the learning unit 3 0 4 is executed to specify the emotion, state, and intensity of Vch, and the process proceeds to step S 4 3 8 to execute the specific result output recalculation process.
  • step S 4 5 the feature extraction unit 3 2 2 of terminal B reads the sampled vibration information, and then In the same manner as in the first embodiment, in step S 4 5 2, the polarity determination process of FIG. 16 is performed, and the process proceeds to step S 4 5 3, the TV output process of FIG.
  • step S 4 5 5 of FIG. 5 the feature extraction unit 3 2 2 of terminal B sets 1 to variables n and P, and proceeds to step S 4 5 6, whether TvO (P) is greater than the threshold Th. If it is determined that TvO (P) is not greater than Th, the process proceeds to step S 4 5 7 and Ts1: r (n) + Tv + (P) + Tv- (P ) Is set. The initial value of Tsr (n) is zero.
  • step S 4 5 8 the feature extraction unit 3 2 2 of the terminal B determines whether or not Vmax (P) is larger than Imax (n). The initial value of Imax (n) is 0.
  • step S 4 5 9 the feature extraction unit 3 2 2 of terminal B proceeds to step S 4 5 9 and sets Vmax (P) to Imax ( In step S 4 6 0, the value of P is incremented by 1, and the process returns to step S 4 5 6 and the subsequent processing is repeatedly executed in step S 4 5 8 from Vmax (P) force Imax (n). If it is determined not to be large, the process of step S 4 59 is skipped.
  • step S 4 5 6 If it is determined in step S 4 5 6 that TvO (P) is greater than Th, the feature extraction unit 3 2 2 of terminal B proceeds to step S 4 6 1, and TvO (P) Is set, and the value of ⁇ ⁇ is incremented by 1.
  • step S 4 62 the feature quantity vector Vc (Tstr (n), Tint (n), Iraax (n)) is generated.
  • step S 4 6 3 the feature extraction unit 3 2 2 of terminal B determines whether or not Tv0 (P) exists. If it is determined that Tv0 (P) exists, step S 4 6 5 Proceed to, increment the value of ⁇ by 1, return to step S 4 5 6, and repeat the subsequent processing.
  • step S 4 6 3 If it is determined in step S 4 6 3 that there is no Tv0 (P), the terminal ⁇ ⁇ feature extraction unit 3 2 2 proceeds to step S 4 6 4 and generates an average vector Vch of Vc. For example, if user a enters “sorehadoukana” in Roman letters from terminal A with “sorehadoukana. The terminal B generates 15 feature vectors Vc corresponding to the 15-character key input excluding the last “ ⁇ ”. The average vector of these 15 feature vector vectors Vc is Vch.
  • step S 48 the learning unit 30 4 of the terminal B transmits the characteristic vector distribution fvc of the vibration information corresponding to the user a stored in the storage unit 30 5, and the center of the distribution. Read the vector V and the standard deviation vector ⁇ ⁇ of the distribution.
  • step S 4 8 2 the learning unit 3 0 4 of terminal B sets 1 to variable Q and proceeds to step S 4 8 3, where vector V i (Q) and step S 4 3 6 (FIG. 5 6) Calculate the inner product value of the feature vector Vch generated in step 1, and store V (Q) corresponding to the inner product value. Then, the process proceeds to step S 4 8 4, where the learning unit 3 0 4 of terminal B increments the value of Q by 1, and whether or not all emotion information is calculated in step 4 8 5, that is, 3 It is determined whether or not the inner product value has been calculated for the six types of central vectors V /. If it is determined that not all emotion information has been calculated, the process returns to step S 4 8 3 and the subsequent processing is repeated. Execute.
  • the storage unit (not shown) in the learning unit 3 0 4 of terminal B has the first embodiment 1 As in the case of, data including emotion information, inner product value, type of center vector V, and order of inner product value is stored.
  • the learning unit 30 4 of terminal B sorts the data in descending order of the inner product value.
  • step S 4 8 7 the learning unit 3 0 4 of terminal B sets 1 to the variable, and in S 4 8 8 determines whether or not data has been read for all emotion information, and all emotions If it is determined that no data has been read for the information, the process proceeds to step S 4 8 9 to read the sorted data.
  • Va (R) m ⁇ Vchra ⁇ Vj (i (R) m + Va Determines whether or not (R) ra is satisfied.
  • V ⁇ (R) m is the vector V (R) This represents the m-th component
  • V (R) m and Vchtn also represent the m-th component of the vectors ⁇ and Vch, respectively.
  • the feature vector of the vibration information As described above, there are three vectors Tstr, Tint and Imax. When the value of m is 1, the Tstr components of the vectors V ⁇ (R), ⁇ (R), and Vc are extracted and processed.
  • step S 49 1 If it is determined in step S 49 1 that V (R) m- V ⁇ (R) m ⁇ Vchm ⁇ V jU (R) m + V and (R) m are not met, terminal B learns The unit 304 proceeds to step S 486, increments the value of R by 1, returns to step S 488, and repeats the subsequent processing. In step S 49 1, V i (R) m—
  • step S492 the learning unit 304 of the terminal B proceeds to step S492, and the value of m Is incremented by 1, and the process proceeds to step S 49 3 to determine whether the value of m is equal to 4, and if it is determined that the value of m is not equal to 4, the process returns to step S 49 1 Repeat the following process.
  • step S 49 3 If it is determined in step S 49 3 that the value of m is equal to 4, that is, all three components constituting the vectors V jU (R), V ⁇ (R), and Vch are all VU ( If it is determined that the condition of R) m-Va (R) m ⁇ Vchm ⁇ V i (R) m + V ⁇ (R) m is satisfied, the learning unit 304 of terminal B goes to step S 4 94. Going forward, Vch is identified as belonging to emotion information E corresponding to R.
  • step S 488 If it is determined in step S 488 that data has been read for all emotion information, the learning unit 304 of the terminal B terminates the processing with Vch's emotion, state, and intensity determined as unidentifiable.
  • FIG. 60 is a diagram showing a feature vector of vibration information corresponding to each emotion information of the user a. This figure is shown as a three-dimensional space consisting of the Tstr axis, Tint axis, and Imax axis.
  • Feature vector generated in step S43 6 in Fig. 56 5 5 5 (Vch) is close to the center vector 5 5 6 (V 15) of the feature vector distribution 5 5 7 corresponding to ⁇ hate / weak '', and the above-mentioned Vch emotions, states, As a result of the intensity specifying process, the feature vector indicating “bad / weak” is specified.
  • step S 5 1 the learning unit 3 0 4 of terminal B outputs the specific result to the output control unit 3 2 4.
  • step S 5 1 2 the characteristics of the vibration information corresponding to the emotion information E of user a Recalculate and accumulate the distribution fvc of the quantity vector, the center vector V of the distribution, and the standard deviation vector V cr of the distribution. That is, the feature vector Vch generated in step S 4 3 6 (Fig. 5 6) is used as the feature vector of the vibration information indicating the user's “dislike” weakness accumulated in the accumulation unit.
  • fvc, ⁇ , and ⁇ are newly calculated and stored in the storage unit 3 0 5.
  • terminal ⁇ generates feature vector Vch from the vibration information when keyboard a keystroke is sent from user ⁇ and identifies emotion, state, and strength.
  • terminal B can also generate a feature vector from vibration information at the time of keystroke for user b, and specify emotion, state, and intensity.
  • terminal A can also identify the emotions, states, and strengths of user a and user b.
  • step S 5 31 the system controller 3 07 determines whether output information has been selected. And wait until it is determined that it has been selected.
  • the selection of output information is performed, for example, by the user selecting a menu displayed on the terminal display, as in the first embodiment. There are four types of menus that can be selected by the user: “specific results”, “information based on features”, “waveform information”, and “stored information”.
  • step S 5 3 1 If it is determined in step S 5 3 1 that the output information has been selected, the system control unit 30 07 proceeds to step S 5 3 2, determines whether or not a specific result has been selected, and determines the specific result. In step S 5 3 3, the 2-bit selection information 0 ° corresponding to the specific result is transmitted to the output control unit 3 2 4.
  • step S 5 3 4 the output control unit 3 2 4 outputs the emotion, the state, and the strength specific result. For example, the word “It seems to indicate weak aversion” is displayed on the terminal display.
  • step S 5 3 2 If it is determined in step S 5 3 2 that the specific result is not selected, the system control unit 30 07 proceeds to step S 5 3 5 and determines whether or not information based on the feature amount has been selected. If it is determined that the information based on the feature amount is selected, the process proceeds to step S 5 36 and transmits 2-bit selection information 0 1 corresponding to the information based on the feature amount to the output control unit 3 2 4.
  • step S 5 3 7 the output control unit 3 2 4
  • Tint, Imax is acquired from the feature extraction unit 3 2 2, and the process proceeds to step S 5 3 8 to generate a vibration display unit drive signal. That is, the output level is Iraax, the output ON time is Tstr, the output OFF time is Tint, and a rectangular wave signal as shown in Fig. 64 is generated. Then, the process proceeds to step S 5 39, and the output control unit 3 2 4 drives the vibration presenting unit 3 6 2.
  • step S 5 35 If it is determined in step S 5 35 that the information based on the feature value is not selected, the system control unit 30 07 determines whether or not the waveform information is selected in step S 5 40. If it is determined that the waveform information has been selected, 2-bit selection information 10 corresponding to the waveform information is transmitted to the output control unit 3 2 4. Step S 5 In 42, the output control unit 3 2 4 acquires the vibration information sampled from the feature extraction unit 3 2 2, generates a waveform signal, and drives the vibration presenting unit 3 62 in step S 5 4 3.
  • step S 5 40 If it is determined in step S 5 40 that waveform information has not been selected, the system control unit 3.07 proceeds to step S 5 44 and determines whether or not storage information has been selected. If it is determined that the information has been selected, the process proceeds to step S 5 45, where 2-bit selection information 0 1 corresponding to the stored information is transmitted to the output control unit 3 24.
  • step S 5 45 When stored information is selected, a further submenu is displayed on the terminal display, allowing the user to select which stored information is to be output. That is, the type of information such as keyboard vibration information, inf, personal information PID, and emotion information E are selected. For example, keyboard vibration information is selected as inf, personal a as PID, and “strong activity” as E.
  • step S 5 46 the system control unit 30 7 determines whether the information type inf, the information PID for identifying the individual, and the emotion information E are selected, and waits until it is determined that the information is selected. .
  • step S 5 47 the system control unit 30 7 generates (inf, PID, E) information based on the information selected by the user, and transmits it to the output control unit 3 24.
  • step S 5 4 8 the output control unit 3 2 4 acquires the center vector of the keyboard vibration information from the storage unit 3 0 5 based on (inf, PID, E).
  • the central vector V jU (Tstr, Tint, Imax) of the distribution of the feature quantity vector of the pulse information corresponding to the “strong activity” of the individual a accumulated in the accumulation unit is acquired.
  • step S 5 4 9 the output control unit 3 2 4 generates a vibration presenting unit drive signal based on the central vector V V. That is, the output level is set to Imax, the output ON time is set to Tstr, the output OFF time is set to Tint, and a square wave 591 signal as shown in Fig. 65 is generated, and vibration is presented in step S5550.
  • Drive part 3 6 2 three times based on the drive signal. If it is determined in step S 5 44 that stored information is not selected, the system control unit 30 07 proceeds to step S 5 51, executes error processing, and ends the processing.
  • vibration information can be experienced by driving the vibration presenting unit.
  • FIG. 66 shows a configuration example of the third information processing apparatus of the present invention.
  • This information processing apparatus can be applied to a personal computer or the like.
  • This information processing device includes an input unit 6 1 1 that accepts input of emotion declaration information, mouse click information, mouse grip pressure information, and environmental temperature information, and a processing unit 6 1 that processes information input from the input unit 6 1 1 3.
  • Processing unit 6 1 Accumulate learning information and specific information output from learning unit 6 1 4 and learning unit 6 1 4 for learning and identification based on feature information and emotional state information output from 3 Based on the output information output from the storage unit 6 1 5, processing unit 6 1 3, the output unit 6 1 2 that outputs information, the communication unit 6 1 6 that performs communication, and the system control unit 6 that controls each unit 1 7 is provided.
  • the information input from the input unit 6 1 1 is an information discriminating unit 6 3 1 that separates the information input into the emotion status reporting information, environmental temperature information, mouse click information or mouse grip pressure information.
  • a feature extraction unit 6 3 2 that extracts feature information from information and mouse grip pressure information, and an output control unit 6 1 2 that outputs output information to the output unit 6 1 2 are provided.
  • the communication unit 6 1 6 includes an information transmission unit 6 3 4 that transmits information and an information reception unit 6 3 5 that receives information.
  • Fig. 67 shows an example of the configuration of the input unit 6 1 1.
  • mouse 6 5 1 grip strength sensor 6 7 1 that detects the strength when the user grips the mouse
  • pressure detection unit 6 5 2 that converts the signal from grip strength sensor 6 7 1 into a pressure signal
  • the temperature sensor 6 5 3 that measures the environmental temperature and the power amplifier 6 6 4 that amplifies the signal from the temperature sensor 6 5 3 are configured.
  • FIG. 68 shows an example of the configuration of the output unit 6 1 2.
  • a temperature presenting unit 692 that generates heat based on a predetermined signal and a power amplifier unit 691 that drives the temperature presenting unit are configured.
  • the temperature presenting section 6 9 2 is composed of Peltier elements 6 9 3 that change in temperature when an electric current is applied.
  • Information processing device that user a has is terminal A
  • information processing device that user b has is terminal B
  • user a and user b communicate with each other using their respective terminals The information is sent and received according to the procedure shown in Fig. 69.
  • terminal A sends a connection request to terminal B
  • terminal B sends a connection response to terminal A.
  • text information such as mail and chat is sent and received between terminal A and terminal B.
  • terminal A initializes transmission / reception of click information and grip pressure information (in this case, the grip pressure when the user grips the mouse), and sends a transmission / reception request to terminal B.
  • the transmission setting information and the reception setting information shown in FIG. 11 are transmitted from terminal A.
  • terminal B Upon receiving the vibration information transmission request from terminal A, terminal B changes the click information and grip pressure information transmission / reception settings and transmits a response to terminal A.
  • terminal A transmits user a's talic information and grip pressure information to terminal B
  • terminal B transmits user b's vibration information to terminal A.
  • Click information and grip pressure information are stored in terminal A and terminal B, respectively.
  • terminal B When a connection termination request is transmitted from terminal A to terminal B, terminal B responds and communication ends.
  • step S 5 72 Obtain the PID, and obtain the ambient temperature information K sent from terminal A in step S 5 72.
  • terminal B system controller 6 1 7 causes information discriminator 6 3 1 to determine whether or not emotion A status report information has been input from terminal A, and determines that it has been input. Wait until
  • the emotion / state chart as shown in Fig. 76 is displayed on the display of terminal A. User a clicks on this emotion 'state chart a predetermined number of times with the mouse to display the emotion / state Make a declaration.
  • the emotion / state chart is clicked with the mouse, the emotion 'state declaration information shown in Fig. 77 is transmitted from terminal A to terminal B.
  • the feelings 'strength of the state, emotion' may be declared by the number of times that you click the state chart, twice when the intensity is weak, the strength is 3 times when in, click four times when the intensity is strong To do.
  • the user's emotion / state declaration information can be obtained using the user's agent (eg, avatar) in the virtual space.
  • step S 5 7 3 If it is determined in step S 5 7 3 that the emotion / state declaration information has been input, the process proceeds to step S 5 7 4, and the system control unit 6 1 7 of terminal B transfers the feature extraction unit 6 3 2 to the terminal The sampling process of the click information and grip pressure information of user a sent from A is started.
  • step S 5 7 5 the system control unit 6 1 7 of terminal B extracts emotion information E from the emotion / state declaration information.
  • step S 5 7 6 the feature control unit 6 3 2 The sampling process of click information and grip pressure information is terminated.
  • sampling processing of mouse click information and grip pressure information may be performed by the feature extraction unit 6 32 of terminal A, and the sampled result may be transmitted to terminal B.
  • “strong surprise” is extracted as emotion information E.
  • step S 5 7 7 the system control unit 6 1 7 of the terminal B executes the generation process of the feature vector Vc based on the talic information and grip pressure information of the user a in the feature extraction unit 6 3 2 Proceed to step S 5 78 to determine whether the value of the environmental temperature K is equal to or higher than the reference value K1, and if it is determined that the value of the environmental temperature K is higher than the reference value K1, Proceeding to S 5 7 9, click information and grip pressure information corresponding to PID and ⁇ for K ⁇ K1 are read from the storage unit 6 15. In this case, the characteristic vector of the click information and the grip pressure information corresponding to the strong surprise of the user a when the environmental temperature is K1 or higher is read out.
  • step S 5 78 If it is determined in step S 5 78 that the environmental temperature K is less than the reference value K1, the system controller 6 1 7 of terminal B proceeds to step S 5 8 0, and the PID at K ⁇ Kl Read the talic information and grip pressure information corresponding to and E from the storage 6 1 5. In this case, the characteristic vector of the talic information and grip pressure information corresponding to the strong surprise of the user a when the environmental temperature is less than K1 is read out.
  • step S 5 8 the system control unit 6 1 7 of terminal B adds the newly generated feature vector Vc to the read feature vector to the learning unit 6 14, and The vector distribution fvc, the center vector V of the distribution, and the standard deviation vector ⁇ ⁇ are recalculated, and the recalculated results are stored in the storage unit 6 15 in step S 5 82.
  • step S 5 9 the feature extraction unit 6 3 2 of terminal B reads the sampled click information and grip pressure information, and then in step S 5 9 2, as shown in FIG. 6 polarity judgment processing, proceed to step S 5 9 3, perform TV output processing of Fig. 1 7, and in step S 5 94, Vmin, Vtnax determination processing is performed, and in step S 5 95, click feature calculation processing described later is performed to obtain values Tclm and Tcim.
  • step S 5 96 the feature extraction unit 6 3 2 of terminal B reads the sampled grip pressure information, performs polarity determination processing in step S 5 9 7, and proceeds to step S 5 9 8. Proceed to TV output processing, and in step S 5 9 9
  • Vmin, Vtnax determination processing is performed, and in step S600, grip pressure feature calculation processing described later is performed, and values Tgrpm and Igrpm are obtained.
  • step S 6 0 the feature extraction unit 6 3 2 of the terminal B performs the feature vector
  • the waveform of the click information when the user clicks the mouse is as shown in Fig. 79. That is, when the user presses the mouse click button, pulse 7
  • step S 6 2 1 of FIG. 7 the feature extraction unit 6 3 2 of the terminal ⁇ sets 1 to the variables ⁇ and ⁇ , and proceeds to step S 6 2 2 to the value of Tv + (P) in Tcl (n) Set
  • step S 6 2 Set the value of ⁇ ( ⁇ ) to Tci (n). Then, the process proceeds to step S 6 2 3, and the feature extraction unit 6 3 2 of terminal ⁇ increments the values of ⁇ and ⁇ by 1, and step S 6 2
  • step 4 it is determined whether there is ⁇ + ( ⁇ ) or ⁇ ( ⁇ ), and ⁇ + ( ⁇ ) or
  • step S 6 2 2 If it is determined that there is ⁇ ( ⁇ ⁇ ⁇ ), the process returns to step S 6 2 2 and the subsequent processing is repeated.
  • step S 6 2 4 If it is determined in step S 6 2 4 that there is no ⁇ + ( ⁇ ) or ⁇ ( ⁇ ), the feature extraction unit 6 3 2 of terminal ⁇ proceeds to step S 6 2 5, and the average value Tclm of Tel Calculate the average Tcira of Tci.
  • Tcltn and Tcira are Calculated by the formula.
  • Tclm (Tel (1) + Tcl (2) + Tcl (3) + Tcl (4)) / 4
  • Tcim (Tci (l) + Tci (2) + Tci (3)) / 3
  • the grip pressure information when the user grips the mouse has a waveform 7 91 as shown in FIG.
  • this waveform is sampled and polarity determination processing and TV output processing are performed, ⁇ +, ⁇ ,
  • step S 6 4 the feature extraction unit 6 3 2 of terminal B sets 1 to variables n and P, proceeds to step S 64 2, sets the value of Tv + (P) to Tgrp (n), and Igrp Set the value of Vmax (P) to (n).
  • Igrpm (Igrp (1) + Igrp (2)) / 2
  • the process of generating and storing the feature vector Vc from the click information and gripping pressure information of the user a's mouse transmitted from terminal A has been described.
  • terminal B A feature vector is generated from user's mouse click information and grip pressure information, and stored.
  • the learning result 7 1 1 for the mouse click information and the grip pressure information is stored in the storage unit 6 1 5 of terminal B when the environmental temperature is K ⁇ K1 7 3 1 and ambient temperature ⁇ ⁇ 1 7 3 Accumulated in two parts.
  • the mouse talic information and grip pressure information are stored separately for user a and user b.
  • terminal A can accumulate learning results related to mouse click information and grip pressure information separately for user a and user b.
  • step S 6 61 system control unit 6 17 of terminal B obtains information PID that identifies user a of terminal A, which is the communication partner, when communication with terminal A is started.
  • step S 6 62 the system controller 6 1 7 of the terminal B causes the information discriminator 6 3 1 to determine whether or not the mouse input of the user a has been received, and until it is determined that there has been an input. stand by.
  • step S 6 6 2 If it is determined in step S 6 6 2 that the mouse input has been received, the process proceeds to step S 6 6 3, and the system control unit 6 1 7 of terminal B is transmitted from the terminal A to the feature extraction unit 6 3 2. User Sampling process of mouse click information and grip pressure information of user a is started. Then, the process proceeds to step S 6 6 4, and the system control unit 6 1 7 of the terminal B causes the information discriminating unit 6 3 1 to determine whether or not the mouse input is completed, and until it is determined that the mouse input is completed. stand by.
  • step S 6 6 4 If it is determined in step S 6 6 4 that the mouse input has been completed, the system control unit 6 1 7 of the terminal B clicks the mouse of the user a transmitted from the terminal A to the feature extraction unit 6 3 2. The sampling process of information and grip pressure information is terminated.
  • sampling processing of mouse click information and grip pressure information may be performed by the feature extraction unit 6 32 of terminal A, and the sampled result may be transmitted to terminal B.
  • the system control unit 3 1 7 of terminal B causes the feature extraction unit 6 3 2 to execute generation processing of the feature vector Vc, and proceeds to step S 6 6 7, where the learning unit 6 1 4
  • step S 6 68 the specific result output recalculation process is executed.
  • step S 6 8 the feature extraction unit 6 3 2 of terminal B reads the sampled click information and grip pressure information, performs polarity determination processing in step S 6 8 2, and proceeds to step S 6 8 3.
  • TV output processing is performed, Vmin and Vtnax determination processing is performed in step S 68 4, and click feature calculation processing described later is performed in step S 6 85 to obtain values Tclm and Tcim.
  • step S 6 8 6 the process proceeds to step S 6 8 6, and the feature extraction unit 6 3 2 of terminal B reads the sampled grip pressure information, performs polarity determination processing in step S 6 8 7, and proceeds to step S 6 8 8. Then, TV output processing is performed, Vmin, Vmax determination processing is performed in step S 689, and grip pressure feature calculation processing described later is performed in step S6990 to obtain values Tgrpm and I grprn.
  • step S 69 the feature extraction unit 6 3 2 of the terminal B generates a feature vector Vc (Tc lm, Tcim, Tgrpm, Igrpm).
  • step S 7 1 the feature extraction unit 6 3 2 of terminal B sets 1 to variables n and P, proceeds to step S 7 1 2, and sets the value of Tv + (P) to Tc l (n). , Tv i (n) is set to Tc i (n).
  • step S 7 1 3 the terminal ⁇ feature extraction unit 6 3 2 increments the values of ⁇ and ⁇ by 1.
  • step S 7 1 4 ⁇ + ( ⁇ ) or ⁇ ( ⁇ ), And if it is determined that there is ⁇ + ( ⁇ ) or ⁇ ( ⁇ ), return to step S 7 1 2 and repeat the subsequent processing.
  • step S 714 If it is determined in step S 714 that there is no Tv + (P) or TvO (P), the terminal ⁇ ⁇ feature extraction unit 6 32 proceeds to step S 7 1 5 and averages Tel average values Tclm and Tci. Calculate the value Tcim.
  • step S731 the feature extraction unit 632 of terminal B sets 1 to variables n and P, proceeds to step S732, sets the value of Tv + (P) to Tgrp (n), and sets Igrp ( Set Vmax (P) directly in n).
  • step S 7 3 the feature extraction unit 6 3 2 of terminal B increments the values of P and n by 1, proceeds to step S 734, and determines whether there is Tv + (P) or TvO (P). If it is determined that there is + ⁇ + ( ⁇ ) or ⁇ ( ⁇ ⁇ ⁇ ), the process proceeds to step S 7 35 and the average value Tgrpm of Tgrp and the average value Igrpm of Igrp are calculated.
  • the feature amount vector Vc is generated from the mouse a click information and the grip pressure information of the user a.
  • step S751 the learning unit 614 of terminal B determines whether the value of the environmental temperature information K transmitted from terminal A is equal to or greater than the reference value K1, and is determined to be equal to or greater than K1.
  • step S 75 1 If it is determined in step S 75 1 that the value of ⁇ is less than the reference value K1, the learning unit 6 1 4 of the terminal ⁇ stores the user in ⁇ ⁇ 1 stored in the storage unit 6 1 5 Read out the distribution vector fvc, the distribution center vector v, and the standard deviation vector ⁇ of the feature vector of the mouse talc information and grip pressure information corresponding to a.
  • step S 7 5 learning unit 6 1 4 of terminal B sets variable Q to 1, and proceeds to step S 7 5 5, where vector V (Q) and step S 6 6 6 (Fig. 8 1) The inner product value of the generated feature vector Vc is calculated, and V i (Q) is stored in correspondence with the inner product value. Then, the process proceeds to step S 7 5 6, where the learning unit 6 14 of terminal B increments the value of Q by 1, and whether or not all emotion information is calculated in step 7 5 7, that is, 3 6 It is determined whether or not the inner product value has been calculated for the central vector Vjt. If it is determined that not all emotion information has been calculated, the process returns to step S 7 5 5 and the subsequent processing is repeated. To do.
  • the storage unit (not shown) in the learning unit of terminal B 4 stores the embodiment.
  • data including emotion information, inner product value, type of central vector V /, and the order of the inner product value is stored.
  • the learning unit 6 14 of terminal B sorts the data in descending order of the inner product value.
  • step S 7 59 the learning unit 6 14 of terminal B sets 1 to the variable scale, and in S 7 60, determines whether or not data has been read for all emotion information, If it is determined that no data has been read regarding emotion information, the process proceeds to step S 7 61 and the sorted data is read.
  • step S 7 62 set variable m to 1 and proceed to step S 7 63, where V i (R) m- ⁇ (R) m ⁇ Vcm ⁇ V
  • V i (R) m represents the ra-th component of the vector V ⁇ (R)
  • V ⁇ (R) m and Vera are the m-th vectors of the vectors ⁇ and Vch, respectively.
  • the feature vector of mouse click information and grip pressure information consists of four components: Tclm, Tcim, Tgrpra, and Igrpra.
  • Tclm When the value of m is 1, the Tclm components of the vectors V i (R), ⁇ (R), and Vc are extracted and processed.
  • step S 7 6 3 If it is determined in step S 7 6 3 that V i (R) m— ⁇ ⁇ (R) m ⁇ Vchm ⁇ V i (R) m + V CT (R) m is not satisfied, terminal B The learning unit 6 1 4 proceeds to step S 7 6 8, increments the value of R by 1, and returns to step S 7 6 0. The subsequent processing is executed repeatedly. If it is determined in step S 7 63 that Vju (R) m— ⁇ (R) m ⁇ Vcm ⁇ V ⁇ (R) m + Y a (R) m is satisfied, terminal B is learned.
  • Part 6 14 proceeds to step S 7 6 4, increments the value of m by 1, proceeds to step S 7 6 5, determines whether the value of m is equal to 5, and determines the value of m If it is determined that is not equal to 5, return to step S76.3 and repeat the subsequent processing.
  • step S 4 9 3 If it is determined in step S 4 9 3 that the value of m is equal to 5, that is, V // (R), V a (R), and Vch for the four components constituting each vector V i (R) m— ⁇ ⁇ (R) m ⁇ Vcm ⁇ V i (R) m + V ⁇ (R) If it is determined that the condition of m is satisfied, the learning unit 6 1 4 of terminal B is Proceeding to step S 7 6 6, Vc is identified as belonging to emotion information E corresponding to R.
  • step S 7 60 If it is determined in step S 7 60 that data has been read for all emotion information, the learning unit 6 14 of terminal B terminates the process with the emotion, state, and strength of Vc being unidentifiable.
  • FIG. 86 shows the feature vector of mouse click information and grip pressure information corresponding to each emotion information of user a.
  • This figure is shown as a four-dimensional space consisting of the Tclm axis, Tcim axis, Tgrpm axis, and Igrpra axis.
  • Fig. 8 Feature vector 8 1 1 (Vc) generated in step S 6 6 6 in Fig. 1 is the distribution of feature vectors corresponding to "joyfulness" 8 1 3 central vector 8 1 2 It is close to ( ⁇ 1), and as a result of the process of specifying the emotion, state, and intensity of Vc described above, it is identified as a feature vector indicating “joy” and “strong”.
  • the emotion, state, and intensity of the user a are specified from the feature vector Vc.
  • step S 6 9 the learning unit 6 1 4 of terminal B outputs the specific result to the output control unit 6 3 3, and in step S 6 9 2, the mouse talic information corresponding to the emotion information E of user a And grip
  • the feature vector distribution fvc, distribution center vector V i, and standard deviation vector V C7 of the pressure information are recalculated and stored. That is, the feature vector Vc generated in step S 6 6 6 (FIG. 8 1) is the mouse click information and grip pressure information indicating “joyful / strong” of the user a accumulated in the accumulation unit. Then, fvc, V i, and ⁇ ⁇ are newly calculated and stored in the storage unit 6 15.
  • emotion, state, and intensity are specified from mouse click information and grip pressure information.
  • information on feature vectors that specify emotion, state, and intensity is newly accumulated.
  • terminal ⁇ generates a feature vector Vc from user's mouse click information and grip pressure information transmitted from terminal ⁇ , and identifies emotion, state, and strength.
  • terminal B can also generate a feature vector from mouse click information and grip pressure information for user b, and specify emotion, state, and intensity.
  • terminal A can also identify the emotions, states, and strengths of user a and user b.
  • step S 78 1 the system control unit 6 1 7 determines whether output information has been selected, and waits until it is determined that it has been selected.
  • the selection of output information is performed, for example, by the user selecting a menu displayed on the terminal display, as in the first embodiment.
  • menus There are four types of menus that can be selected by the user: “specific results”, “information based on features”, “waveform information”, and “stored information”.
  • step S 7 8 1 determines whether or not a specific result has been selected, and determines the specific result.
  • step S 78 3 2-bit selection information 0 0 corresponding to the specific result is transmitted to the output control unit 6 3 3.
  • step S 78 4 the output control unit 6 3 3 outputs the emotion, state, and identification result of the intensity. For example, the word “It seems to show a strong joy” is displayed on the terminal display.
  • step S 78 2 determines whether or not information based on the feature amount has been selected. If it is determined that the information based on the feature value has been selected, the process proceeds to step S 7 86 to transmit 2-bit selection information 0 1 corresponding to the information based on the feature value to the output control unit 6 3 3.
  • step S 78 8 7 the output control unit 6 3 3 acquires the feature quantity (Tgrp, Igrp) from the feature extraction unit 6 3 2, and proceeds to step S 7 8 8 to generate a temperature presentation unit drive signal. That is, the output level is Igrp, the output ON time is Tgrp, and a rectangular wave signal as shown in FIG. 90 is generated. Then, the process proceeds to step S 7 8 9, and the output control unit 6 3 3 drives the temperature presentation unit 6 9 2.
  • step S 7 85 the system control unit 6 17 determines whether or not the waveform information is selected in step S 7 90. If it is determined that the waveform information is selected, in step S791, the 2-bit selection information 10 corresponding to the waveform information is transmitted to the output control unit 633. In step S792, the output control unit 6 3 3 obtains mouse click information and grip pressure information sampled from the feature extraction unit 6 3 2, generates a waveform signal, and in step S79 3 The presenter 6 9 2 is driven.
  • step S790 determines whether the waveform information is not selected. If it is determined in step S790 that the waveform information is not selected, the system control unit 6 1 7 proceeds to step S794, determines whether the stored information is selected, and stores the stored information. If it is determined that the selection is made, the process proceeds to step S795, and the 2-bit selection information 0 1 corresponding to the stored information is transmitted to the output control unit 3 2 4.
  • step S795 the 2-bit selection information 0 1 corresponding to the stored information is transmitted to the output control unit 3 2 4.
  • the type of information such as mouse talic information and grip pressure information, inf, information that identifies an individual PID, Emotion information E is selected. For example, mouse click information and grip pressure information are selected as inf, personal a as PID, and “weak surprise” as E.
  • step S796 the system controller 6 17 determines whether the information type inf, the information PID for identifying the individual, and the emotion information E are selected, and waits until it is determined that the information is selected. .
  • step S 797 the system control unit 6 17 generates (inf, PID, E) information based on the information selected by the user, and transmits it to the output control unit 6 33.
  • step S 7 98 the output control unit 6 3 3 acquires the center vector of the keyboard vibration information from the storage unit 6 15 based on (inf, PID, E). In this case, the central vector V / (Tel, Tci, Tgrp, Igrp) of the distribution of the feature vector of the pulse information corresponding to the “weak surprise” of the individual a accumulated in the accumulation unit is acquired.
  • step S 7 99 the output control unit 6 3 3 generates a temperature presentation unit drive signal based on the center vector V. That is, the output level is set to Igrp, the output ON time is set to Tgrp, the output OFF time is set to Tgrp, and a rectangular wave signal 85 1 as shown in Fig. 91 is generated, and the temperature is displayed in step S800.
  • Drive part 6 9 2 three times based on the drive signal.
  • step S794 If it is determined in step S794 that the stored information is not selected, the system control unit 6117 proceeds to step S820, executes error processing, and ends the processing.
  • the user can display and recognize the emotion, state, and intensity determined from the mouse click information and the grip pressure information.
  • FIG. 92 is a diagram showing a configuration of a second communication system using the information processing apparatus of the present invention. Unlike the system in FIG. 1, instead of terminal 1, terminal 2, and terminal 3, game machine 8 7 1, game machine 8 7 2, and game machine 8 7 3 are installed. And the game consoles 8 7 1 to 8 7 3 It is connected to the server 8 8 1 via the network 8 8 0 and is configured to communicate information with each other.
  • the game machine 8 7 1 (game machine A), game machine 8 7 2 (game machine B), and game machine 8 7 3 (game machine C) receive input information.
  • Input part 8 9 1 A to 8 9 1 C processing part that processes input information 8 9 3 A to 8 9 3 C, the user's emotion, state, and intensity from the input information Learning and identifying learning unit 8 9 4 A to 8 94 4 C, accumulating unit 8 95 5 A to 8 95 5 C, information identified by learning unit, or accumulation 8 9 2 A to 8 9 2 C for outputting information stored in the unit, communication units 8 9 6 A to 8 9 6 C for transmitting and receiving information, and a system control unit for controlling each unit 8 9
  • the configuration of game machine 8 7 1 (game machine A) to game machine 8 7 3 (game machine C) is the same, so the input unit 8 9 1 A to system control unit 8 9 7 A constituting them
  • the input unit 8 9 1 B through the system control unit 8 9 7 B and the input unit 8 9 1 C through the system control unit 8 9 7 C each have the same function. In the following, if it is not necessary to distinguish them individually, the input unit 8 9 1 through the system control unit
  • FIG. 93 shows a configuration example of the game machines 8 7 1 to 8 7 3.
  • information input from the input unit 8 9 1 and the input unit 8 9 1 that receives input of voice information, acceleration information, and grip pressure information of the controller 9 4 1 (Fig. 9 4) of the game machine Learning unit 8 9 3, learning unit 8 9 4 learning based on feature information and emotional state information output from processing unit 8 9 3 and learning unit 8 9 4
  • processing unit 8 9 3 that stores information and specific information
  • the output unit 8 9 2 that outputs information
  • the communication unit 8 9 6 that performs communication
  • each unit A system controller 8 9 7 is provided for controlling the system.
  • the processing unit 8 9 3 includes an information discriminating unit 9 1 1 for separating acceleration information, grip pressure information, or voice information from information input from the input unit 8 9 1, acceleration information and control information. Outputs output information to the feature extraction unit 9 1 2 that extracts feature information from the grip pressure information of 9 4 1, the meaning extraction unit 9 1 3 that extracts emotion information from voice information, and the output unit 8 9 2 A control unit 9 1 4 is provided.
  • the communication unit 8 96 is provided with an information transmission unit 9 2 1 for transmitting information and an information reception unit 9 2 2 for receiving information.
  • the input unit 8 9 1 is a microphone, an acceleration sensor that detects acceleration in the directions of the three axes (X, Y, ⁇ axis perpendicular to each other), and a grip pressure that detects the strength when the user grips the controller 9 4 1 Consists of sensors and placed on the controller 9 4 1 attached to the game console.
  • the output unit 8 92 includes a light presenting unit that emits light based on a predetermined signal and a vibration presenting unit that includes a vibration motor that vibrates based on the predetermined signal. 4 Arranged in 1.
  • Fig. 9 4 shows an example of the configuration of the controller 9 4 1.
  • the user plays a game by operating a predetermined button of the controller 9 4 1.
  • a 3-axis acceleration sensor 9 6 1 is provided in the upper center of the controller 9 4 1.
  • 3-axis accelerometer 9 6 1 is used when the user moves the controller 9 4 1 in the X-axis direction (left and right direction parallel to the paper surface in the figure), ⁇ axis direction (up and down direction parallel to the paper surface in the figure) , Acceleration in the ⁇ axis direction (front-rear direction perpendicular to the paper surface in the figure) is detected.
  • a microphone 9 6 2 is provided at the lower center of the controller 9 4 1, and the sound emitted by the user is input to the microphone 9 6 2.
  • Grip pressure sensors 9 6 3 L and 9 6 3 R are provided at the left and right ends of the lower part of the controller 9 4 1.
  • the normal grip pressure sensor 9 6 3 L The parts where 9 6 3 R are installed are gripped by the left and right hands of the user, respectively.
  • vibration presenting portions 9 6 4 L and 9 6 4 R are provided near the left and right ends of the triaxial acceleration sensor 9 61, respectively.
  • Vibration presenting portions 9 6 5 L and 9 6 5 R are respectively provided below the same positions as the grip pressure sensors 9 6 3 L and 9 6 3 R.
  • the vibration presenting units 9 6 5 L and 9 6 5 R are configured by the vibration motor built in the controller 9 4 1.
  • the game machine that user a has is game machine A
  • the game machine that user b has is game machine B
  • user a and user b use their respective game machines to participate in a large number of people.
  • the voice of the user a is input from the microphone 9 6 2 of the controller of the game machine A, transmitted to the game machine B, and the speaker of the television to which the game machine B is connected, or the speaker power dedicated to the game machine
  • the voice uttered by user a is transmitted to user b.
  • the voice uttered by the user b is also transmitted to the user a, and the user a and the user b can perform voice communication.
  • the game machine A transmits a connection request to the server 8 8 1 in step S 1 0 0 1, and the server 8 8 1 receives the connection request in step S 1 1 0 1.
  • the server 8 8 1 performs authentication based on the connection request in step S 1 1 0 2.
  • the connection request sent from game machine A includes information that identifies user a, for example, name and nickname, and a password for participating in the game. Based on this information, it is determined whether or not user a is eligible to participate in the game (authentication). If it is determined that user a is eligible to participate in the game, step 1 1 0 3 sends connection request acceptance to game machine A.
  • Game machine A receives the connection request acceptance in step S 1 00 0 2, and gaming is started in game machine A in step S 1 0 03.
  • step S 1 2 0 1 (corresponding to step S 1 0 0 1)), S 1 1 04 (step S 1 1 0 1), S 1 1 0 5 (corresponding to step S 1 1 0 2), S 1 1 0 6 (corresponding to step S 1 1 0 3), S 1 2 0 2 (step S 1 00 3))
  • step S 1 2 0 3 the game is also started on the game machine B.
  • server 8 8 1 connects to game machine B at step S 1 1 0 7 Receive a request.
  • the server 8 81 transmits a connection request acceptance to the game machine A in step S 1 1 0 9, and this is received by the game machine A in step S 1 0 0 5.
  • the server 8 8 1 calls the game machine B in step S 1 1 0 8, and this is received by the game machine B in step S 1 204.
  • Server 8 8 1 receives the response sent from game machine B at step S 1 2 0 5 at S 1 1 1 0 and connects game machines A and B at step S 2 1 1 1. Start.
  • the server 8 8 1 transmits a connection confirmation to the game machine A in step S 1 1 1, and this is received by the game machine A in step S 1 0 0 6.
  • the audio information is transmitted from the game machine A to the game machine B via the server 8 81, and the audio information is transmitted from the game machine B to the game machine A via the server 8 8 1 (step S 1 0 0 7, S 1 1 1 3, S 1 1 1 4, S 1 20 6, S 1 2 0 7, S 1 1 1 5, S 1 1 1 6, S 1 0 0 8).
  • game machine A performs initial settings for transmission and reception of acceleration information and grip pressure information in step S 1 ⁇ 0 9, and in step S 1 0 1 0, acceleration 'grip pressure information transmission / reception to server 8 8 1 is performed.
  • the server 8 8 1 transmits an acceleration / grip pressure information transmission / reception request to the game machine B in step S 1 1 1 8.
  • step S 1 20 8 the game machine B that received the acceleration / grip pressure information transmission / reception request from the server 8 8 1 changes the transmission / reception settings of acceleration information and grip pressure information in step S 1 2 0 9, and S 1 2 1 0 sends a response to server 8 8 1.
  • step S 1 1 2 when a response from game machine B is received, server 8 8 1 transmits and receives acceleration information of game machines A and B in step S 1 1 2 1.
  • the server 8 8 1 transmits a connection confirmation to the game machine A in step S 1 1 2 2, and this is received by the game machine A in step S 1 0 1 2.
  • the game machine A A It is recognized that the acceleration information and the grip pressure information regarding the user b are transmitted from the game machine B, and the acceleration information and the grip pressure information regarding the user a are transmitted from the game machine A on the game machine B. It is recognized.
  • the acceleration “grip pressure information” is transmitted from the game machine A to the game machine B via the server 8 8 1 (steps S 1 0 1 3, S 1 1 2 3, S 1 1 24, S 1 2 1 1)
  • feature information storage processing is performed in steps S 1 1 1 2.
  • acceleration-grip pressure information is transmitted from game machine B to game machine A via server 8 8 1 (steps S 1 2 1 3, S 1 1 2 5, S 1 1 2 6, S 1 0 1 4)
  • feature information storage processing is performed in step S 1 0 1 5.
  • the feature information accumulation process will be described later with reference to FIG.
  • step S 1 0 1 6 when a connection termination request for game machine B is transmitted from game machine A to server 8 8 1, this is received by server 8 8 1 in step S 1 1 2 7. This is sent from the server 8 8 1 to the game machine B in S 1 1 2 8.
  • the game machine B that has received the connection termination request in step S 1 2 1 4 responds to it in step S 1 2 1 5, and is received by the server 8 8 1 in step S 1 1 3 0.
  • the server 8 8 1 transmits a connection end request acceptance in step S 1 1 2 9, which is received by the game machine A in step S 1 1 0 9.
  • step S 1 3 1 the processing of steps S 1 3 0 1 to S 1 3 1 7 in game machine A in FIG. 9 6 is basically the same as the processing in steps SIOO 1 to 1 0 1 7 in game machine A in FIG.
  • step S 1 3 1 emotion information identification processing is performed based on the acceleration information and grip pressure information transmitted from game machine B. It is. Further, the processing of steps S 1 5 0 1 to S 1 5 1 5 in the game machine B of FIG. 9 6 is the same as the processing of steps S 1 2 0 1 to 1 2 1 5 in the game machine B of FIG.
  • step S 1 5 12 emotion information identification processing is performed based on the acceleration information and grip pressure information transmitted from game machine A.
  • steps S 1 4 0 1 to S 1 4 3 0 in the server 8 8 1 in FIG. 9 6 is the same as the processing of steps S 1 1 0 1 to 1 1 3 0 in the server 8 8 1 in FIG. Since it is the same process, its description is omitted.
  • Game machine A can perform feature information accumulation processing based on the acceleration information and grip pressure information related to user a output from controller 9 4 1 attached to game machine A, or send from game machine B. It is also possible to perform feature information storage processing based on acceleration information and grip pressure information related to the user b.
  • step S 1 6 2 the system control unit 8 9 7 of the game machine A acquires information (for example, name, nickname, etc.) PID that identifies the user a of the game machine A, and step S 1 6 2 2
  • the system control unit 8 97 causes the information discriminating unit 9 11 to determine whether or not the voice information of the user a has been input, and waits until it is determined that the input has been performed.
  • step S 1 6 2 2 If it is determined in step S 1 6 2 2 that the voice information has been input, the process proceeds to step S 1 6 2 3, and the system control unit 8 9 7 sends the feature extraction unit 9 1 2 to the user a. The sampling process of acceleration information and grip pressure information is started. Then, the process proceeds to step S 1 6 2 4, and the system control unit 8 9 7 causes the meaning extraction unit 9 1 3 to perform voice recognition of the voice information input.
  • step S 1 6 2 5 the system control unit 8 9 7 determines whether or not the recognized speech includes words representing emotion, state, and intensity, and the emotion, state, and state are determined. If it is determined that there is no word representing the strength, the process returns to step S 1 6 2 2 and the subsequent processing is repeated.
  • the phrase indicating emotion and state is as shown in FIG. 23, and the phrase indicating strength is as shown in FIG.
  • step S 1 6 2 5 If it is determined in step S 1 6 2 5 that there is a phrase indicating emotion, state, and intensity, the system controller 8 9 7 determines that the subject of the recognized phrase is the user in step S 1 6 2 6 In other words, if the recognized phrase is a phrase representing the emotion, state and strength of the user a, and if the subject is determined not to be a user, step S 1 6 2 Return to 2 and repeat the subsequent processing.
  • step S 1 6 2 6 determines whether the user a's voice has been input for one frame in step S 1 6 2 7. And waits until it is determined that one phrase has been input. If it is determined in step S 1 6 2 7 that one phrase has been input, the system control unit 8 9 7 proceeds to step S 1 6 2 8, and the feature extraction unit 9 1 2 The information sampling process is terminated.
  • step S 1 6 2 9 the system control unit 8 9 7 causes the meaning extraction unit 9 1 3 to extract emotion information E.
  • step S 1 6 3 the system control unit 8 9 7 causes the feature extraction unit 9 1 2 to execute generation processing of the characteristic vector Vc based on the acceleration information and the grip pressure information related to the user a.
  • step S 1 6 3 acceleration information and grip pressure information corresponding to information PID and emotion information E are read from the storage unit 8 95.
  • the characteristic vector of the acceleration information and the grip pressure information corresponding to the surprise in the user a is read out.
  • the process proceeds to step S 1 6 3 2, and the system controller 8 9 7 adds the newly generated feature vector Vc to the read feature vector to the learning unit 8 9 4, and distributes the vector distribution.
  • fvc, the central vector V of the distribution, and the standard deviation vector ⁇ are recalculated.
  • step S 1 6 3 the recalculated result is stored in the storage unit 8 95.
  • a characteristic vector corresponding to the surprise in the user a is generated from the acceleration information and the grip pressure information, and the vector distribution, the central vector of the distribution, and the standard deviation vector are recalculated. And accumulated.
  • step S 1 6 51 the feature extraction unit 9 12 performs a feature amount calculation process of acceleration information described later with reference to FIGS. 100 and 101.
  • the first to the first and second components the first to the first and second components
  • step S 1 6 5 2 the feature extraction unit 9 1 2 performs a gripping pressure information feature amount calculation process which will be described later with reference to FIG. 10 and FIG. As a result, among the components constituting the feature vector Vc, the first to third to twenty-first components
  • Igr 1 L (1), Igr_L (2), Tgr 1 L (1), Tgr_L (2)) are calculated.
  • step S 1 6 5 3 the feature extraction unit 9 1 2
  • Vc (Acc + (1), Acc + (2), Acc + (3), Tac + (1), Tac + (2), Tac + (3), Acc-(1), Acc-
  • Igr_L (1), Igr_L (2), Tgr_L (1), Tgr_L (2)) are generated.
  • step S 1 6 7 1 the feature extraction unit 9 1 2 reads the sampled acceleration information, and then, in the same manner as in the first embodiment, in step S 1 6 7 2, the polarity determination of FIG. Then, the process proceeds to step S 1 6 7 3 to perform the TV output process of FIG. 17, and in step S 1 6 74, the Vmin and Vmax determination process of FIG.
  • FIG. 10 is a diagram showing an example of a waveform of acceleration information output by the three-axis acceleration sensor 9 61 of the controller 94 1.
  • the 3-axis acceleration sensor 9 61 detects the acceleration in the X-axis direction, the acceleration in the Y-axis direction, and the acceleration in the Z-axis direction.
  • the vertical axis indicates the sum of accelerations in the X-axis direction, Y-axis direction, and Z-axis direction
  • the horizontal axis indicates time.
  • time ⁇ + indicates the time during which positive acceleration occurs for the controller
  • time ⁇ - indicates the time during which negative acceleration occurs for the controller.
  • the time ⁇ ⁇ ⁇ indicates the time when the acceleration to the controller is almost the mouth.
  • step S 1 6 74 when the Vmin and Vmax determination processing in step S 1 6 74 is performed, an output value Vmax corresponding to time Tv + and an output value Vmin corresponding to time Tv ⁇ are obtained. As a result, waveform information as shown in FIG. 103 is obtained.
  • step S 1 6 7 5 of FIG. 10 the feature extraction unit 9 1 2 sorts the output values Vmax (P) sorted in ascending order of time into the output values Vmax ( l), Vmax (2) N Vmax (3) is extracted, and in step S 1 6 7 6, the time corresponding to the output values Vmax (l) Vmax (2), Vmax (3) Tv + (1), ⁇ + (2) Extract ⁇ + (3).
  • the one with the largest output value (the third rectangular wave from the left in the figure) is selected from the three rectangular waves with positive output values shown in Fig. 10 3, and the output value Is Vmax (l), and the time is Tv + (1).
  • the output value of the rectangular wave with the second largest output value is Vmax (2)
  • the time is Tv + (2)
  • the output value of the rectangular wave with the third largest output value is Vmax (3)
  • the time is Tv + (3).
  • Fig. 10 03 the case where there are three rectangular waves with output values in the positive direction has been explained as an example, but when there are only two rectangular waves with output values in the positive direction, Vniax (3 ) And Tv + (3) are 0.
  • step S 1 6 7 7 the feature extraction unit 9 1 2 performs the first through sixth components constituting the feature vector Vc.
  • Acc + (1), Acc + (2), Acc + (3), Tac + (l), Tac + (2), Tac + (3) are respectively Vmax (l), Vmax (2), Vmax (3), ⁇ + ( 1) Set the value of ⁇ + (2) and ⁇ + (3).
  • step S 1 6 7 8 the feature extraction unit 9 1 2 sorts the output values Vtnin (P) sorted in ascending order of time into the output values Vmin (l), Vmin ( 2), Vmin (3) is extracted, and the time corresponding to the output values Vmin (l), Vmin (2), Vmin (3) in step S 1 6 7 9 Tv- (1), ⁇ -(2) Extract ⁇ - (3).
  • the feature extraction unit 9 1 2 performs the seventh to first second components Acc ⁇ (l), Acc ⁇ ( 2 ), Acc-(3), Tac- (1), Tac- (2), Tac- (3), Vmin (l), Vmin (2), Vmin (3), Tv_ (1), Tv- (2), Tv- Set the value of (3).
  • the feature amount of the acceleration information is calculated.
  • the grip pressure information is output by the right hand grip pressure sensor 9 6 3 R and the left hand grip pressure sensor 9 6 3 L of the controller 9 4 1.
  • the feature amount calculation processing of the grip pressure information is performed for each of the grip pressure information output by the grip pressure sensor 9 63 R and the grip pressure information output by the grip pressure sensor 96 3 L.
  • step S 1 7 0 the feature extraction unit 9 1 2 reads the sampled grip pressure information, and then, in the same manner as in the first embodiment, in step S 1 7 0 2, the polarity shown in FIG. Judgment processing is performed, the process proceeds to step S 1 700, and the TV output processing of FIG. 17 is performed.
  • step S 1 700 04 the Vmin and Vmax judgment processing of FIG. Fig. 10 06 shows the waveform of the grip pressure information output by the grip pressure sensor 9 6 3 R.
  • Fig. 10 07 shows the waveform of the grip pressure information output by the grip pressure sensor 9 6 3 L. It is a figure which shows a waveform.
  • the output value of the grip pressure is shown on the vertical axis, and the time is shown on the horizontal axis.
  • the time ⁇ + indicates the time that the user a holds the controller with a strength higher than the predetermined strength
  • the time TvO indicates that the user a holds the controller with a strength less than the predetermined strength. It shows the time that is.
  • step S 1 704 when the Vtnin and Vmax determination processing in step S 1 704 is performed, an output value Vmax corresponding to time Tv + and an output value Vmin corresponding to time Tv ⁇ are obtained.
  • the waveform information as shown in FIG. 10 08 is obtained from the grip pressure information shown in FIG. 10 06, and as shown in FIG. 10 09 from the grip pressure information shown in FIG. 10 07. Can be obtained.
  • step S 1 7 0 5 of FIG. 1 0 5 the feature extraction unit 9 1 2 calculates Vmax (P) sorted in order from the earliest time for the output of the right grip pressure sensor 9 6 3 R. Sort in descending order to extract Vmax (l) and Vmax (2), and in step S 1 7 0 6, Tv + (1) and ⁇ + (2) corresponding to Vmax (l) Vmax (2) To extract.
  • the one with the largest output value is selected from the two rectangular waves with the output value in the positive direction shown in Fig. 10 (left rectangular wave in the figure), and the output value is Vmax (l) And the time is Tv + (1).
  • the output value of the rectangular wave with the second largest output value is Vmax (2), and the time is Tv + (2).
  • FIG. 10 3 the case where there are two rectangular waves has been described as an example. However, when there is only one rectangular wave, the values of Vmax (2) and Tv + (2) are zero.
  • step S 1 7 0 7 the feature extraction unit 9 1 2 performs the first to sixth components constituting the feature vector Vc.
  • step S 1 7 0 8 the feature extraction unit 9 1 2 sorts the output of the right grip pressure sensor 9 6 3 R from the largest value in the order of Vmax (P) sorted in order of time.
  • Vraax (l) and Vmax (2) are extracted, and Tv + (1) and ⁇ + (2) corresponding to Vmax (l) N Vmax (2) are extracted in step S 1 709.
  • step S 1 7 1 the feature extraction unit 9 12 receives the 17th to 20th components constituting the feature vector Vc.
  • Vmax (l), Vmax (2), Tv + (1), and Tv + (2) to Igr—L (l), Igr—L ( 2 ), Tgr_L (l), and Tgr_L ( 2 ), respectively.
  • the game machine ⁇ ⁇ performs the feature information accumulation process based on the acceleration information and the grip pressure information related to the user a
  • the game machine A is a user transmitted from the game machine B.
  • Feature information storage processing can also be performed based on acceleration information and grip pressure information related to b.
  • the acceleration information and the grip pressure information related to the user b are sampled in the feature extraction unit 9 1 2 of the game machine B, and the sampled values are output to the output control unit 9 14 and the information transmission unit.
  • 9 2 In 1 a predetermined header is added and transmitted to game machine A.
  • the voice uttered by the user b is transmitted to the game machine A, and the meaning extraction unit 9 13 of the game machine A extracts emotion information from the voice information of the user b.
  • the game machine A performs the feature information accumulation process described above with reference to FIGS. 97 and 98 based on the acceleration information and the grip pressure information regarding the user b transmitted from the game machine B. For example, if the user b speaks that this is irritated, the game machine A performs feature information accumulation processing, and the emotion information in step S 1 6 2 9 in FIG. "Is extracted. On the other hand, in the game machine B, when the user speaks “This is impatient”, the signal of the waveform shown in Fig. 1 10 is detected by the 3-axis acceleration sensor 9 6 1 of the controller 9 4 1 of the game machine B The signal of the waveform shown in Fig.
  • the signals having the waveforms shown in FIGS. 1 1 0 to 1 1 2 are sampled by the feature extraction unit 9 1 2 of the game machine B at intervals of the period Tclk. Then, as the acceleration information, a header indicating that the values Vs l, Vs2, Vs3,..., Vs n obtained by sampling the signal of FIG. Sent to. Similarly, as the grip pressure information, a header indicating that VsRl, VsR2, VsR3, VsRn, which is the sampled signal of Fig. 11 is the right grip pressure information of user b, is added, A value sent from game machine A and sampled in Fig. 1 1 2 VsL l, VsL2, VsL3, ...
  • a header indicating that VsLn is the left hand grip pressure information of user b is added to the game Sent to machine A.
  • game machine A uses user B in the process of generating feature vector Vc in step S 1 6 30 in FIG. Generates and accumulates feature vectors corresponding to the instability.
  • the game machine B generates and accumulates a feature vector from the acceleration information and grip pressure information of the user b, and at the same time, the game machine A transmits the acceleration information of the user a transmitted from the game machine A.
  • a feature vector is generated from the information and grip pressure information and stored.
  • the storage unit 8 9 5 of the game machine A and the game machine B has the learning result 9 8 1 regarding the acceleration information and the grip pressure information, respectively, as shown in FIG. Information on 9 1 and user b 9 9 2 are stored separately.
  • step S 1 7 3 the system control unit 8 9 7 of the game machine B acquires information PID that identifies the user a of the game machine A that is the communication partner.
  • step S 1 7 3 2 the system control unit 8 9 7 of the game machine B informs the information discriminating unit 9 1 1 that the output value of at least one of the acceleration information or the grip pressure information related to the user a has a threshold value. Determine whether or not the threshold has been exceeded, and wait until it is determined that the threshold has been exceeded.
  • the threshold value may be set in advance by a program or the like, or may be set by the user each time.
  • step S 1 7 3 2 If it is determined in step S 1 7 3 2 that the output value of at least one of acceleration information and grip pressure information exceeds the threshold value, the process proceeds to step S 1 7 3 3, and the system control unit 8 9 7 The output value of acceleration information and grip pressure information related to the user a is stored in a storage unit (not shown) of the unit 9 1 2. Then, the system control unit 8 9 7 proceeds to step S 1 7 3 4, and the information discriminating unit 9 11 1 outputs the output value of acceleration information or grip pressure information related to the user a to a predetermined time (for example, 10 seconds). ) Make a determination as to whether or not the threshold value is below the threshold value. If it is determined that the threshold value is not below the threshold value for a predetermined time or more, return to step S 1 7 3 3.
  • a predetermined time for example, 10 seconds
  • step S 9 3 4 If it is determined in step S 9 3 4 that the output value of acceleration information or grip pressure information related to user a has fallen below the threshold for a predetermined time or longer, the process proceeds to step S 1 7 3 5 and the system control unit 8 9 7 Causes the feature extraction unit 9 1 2 to execute a feature vector Vcag generation process described later with reference to FIG. 1 15. As a result, A characteristic vector Vcag is generated based on the acceleration information and grip pressure information.
  • step S 1 7 36 the system control unit 8 97 causes the learning unit 8 94 to execute the emotion information specifying process of Vcag described later with reference to FIG. As a result, emotion information corresponding to the characteristic vector Vcag is identified.
  • step S 1 7 3 7 the system control unit 8 97 causes the learning unit 8 94 to execute a specific result output recalculation process which will be described later with reference to FIG.
  • step S 1 7 5 the feature extraction unit 9 1 2 performs acceleration information feature amount calculation processing (the processing is the same as the processing shown in FIGS.
  • step S 1 7 5 2 the feature extraction unit 9 1 2 executes grip pressure information calculation processing (the processing is the same as the processing shown in FIG. 104 and FIG. 10 5, so description thereof is omitted) To do.
  • step S 1 7 5 3 the feature extraction unit 9 1 2 performs the feature vector Vcag
  • Igr_L (1), Igr_L (2), Tgr_L (1), Tgr_L (2)) are generated.
  • the feature vector Vcag is generated from the acceleration information and the grip pressure information related to the user a.
  • Vcag's emotion information specifying process will be described with reference to FIGS. This process is executed in the learning unit 8 94 of the game machine B.
  • step S 1 8 3 the learning unit 8 94 determines the distribution of the characteristic vector f VC and the central vector of the distribution of the acceleration information and the grip pressure information related to the user a stored in the storage unit 8 95. Read V and standard deviation vector ⁇ of distribution.
  • step S 1 8 3 2 the learning unit 8 94 sets 1 to the variable Q.
  • the variable Q is an integer from 1 to 36 and corresponds to 36 types of emotion information.
  • step S 1 8 3 3 the learning unit 8 9 4 calculates the inner product value of the vector V ⁇ (Q) and the feature vector Vcag generated in step S 1 7 3 5 (Fig. 1 1 4). Store V ⁇ (Q) corresponding to the inner product value.
  • step S 1 8 3 4 the learning unit 8 9 4 increments the value of Q by 1, and whether or not all emotion information is calculated in step S 1 8 3 5, that is, 3 It is determined whether or not the inner product value has been calculated for the six types of central vectors V ⁇ , and if it is determined that all emotion information has not been calculated, the process returns to step S 1 8 3 3 for further processing. Repeat the above.
  • step S 1 8 3 6 the learning unit 8 94 sorts the data in descending order of inner product values.
  • the order of the inner product values is represented by the variable R, and the value of the variable R is an integer from 1 to 36.
  • step S 1 8 3 7 the learning unit 8 94 sets 1 to the variable, and in S 1 8 3 8, determines whether or not data has been read for all emotion information, and all emotion information If it is determined that the data has not been read, the process proceeds to step S 1 8 3 9 and the data sorted by the process of step S 1 8 3 6 are read in order.
  • step S 1 8 3 3 the inner product value of the center vector and feature vector Vcag corresponding to 3 types of emotion information is calculated, and among those center vectors, the feature vector Vcag and If the center vector with the largest inner product value is the feature vector center vector V i 3 0 corresponding to the emotional information “activity / strong” of user a, and the R value is 1.
  • step S 1 8 4 set variable m to 1, proceed to step S 1 84 1 and proceed to V ⁇ (R) ra-Va (R) m ⁇ Vcagm ⁇ V / (R) m + Va (R) Determine whether the force satisfies the condition of m.
  • V (R) m represents the tn-th component of the vector V (R)
  • ⁇ (R) m and Vcagm represent the m-th component of the vectors ⁇ and Vcag, respectively.
  • the characteristic vector of acceleration information and grip pressure information is as described above.
  • Igr_R (1), Igr I R (2), Tgr I R (1), Tgr_R (2), Igr_L (1), Igr_L (2), Tgr I L (1), T gr_L (2) It is composed of 20 components.
  • the value of m is 1, the component Acc + (1) of each vector of V (R), ⁇ (R), and Vcag is extracted and processed.
  • step S 1 8 4 V (R) m-Va (R) ra ⁇ Vcagm ⁇ V i (R) m +
  • step S 1 8 4 determines whether the condition of VCT (R) m is not satisfied. If it is determined that the condition of VCT (R) m is not satisfied, the learning unit 8 94 proceeds to step S 1 8 4 6, increments the value of R by 1, and returns to step S 1 8 3 8 , Repeat the following process. If it is determined in step S 1 8 4 1 that the condition V (R) m - ⁇ (R) m ⁇ Vchm ⁇ V i (R) m + Va (R) m is satisfied, the learning unit 8 9 4 proceeds to step S 1 8 4 2 and increments the value of m by 1 and proceeds to step S 1 8 4 3 to determine whether the value of m is equal to 2 1, ie, V i (R) , V ⁇ (R), and Vcag vectors, it is determined whether or not all 20 components have been checked, and if it is determined that the value of m is not equal to 2 1, step S 1 8 4 Return to 1 and repeat the subsequent processing.
  • step S 1 8 4 3 if it is determined that the value of m is equal to 2 1, that is, the 20 vectors constituting the vectors V i (R), ⁇ (R), and Vcag are used. If all the components are determined to satisfy the condition of Vjli (R) m-Va (R) m ⁇ Vcagtn ⁇ V / i (R) m + Va (R) m, the learning unit 8 9 4 Proceeding to step S 1 844, Vcag identifies that it belongs to emotion information E corresponding to R.
  • step S 1 8 3 8 If it is determined in step S 1 8 3 8 that data has been read for all emotion information, the learning unit 8 94 proceeds to step S 1 8 4 5 and identifies emotion information corresponding to the feature vector Vcag. Processing is terminated as impossible. That is, for each of 36 central vectors V (R) and 36 standard deviation vectors ⁇ (R) corresponding to 36 types of emotion information, ⁇ (R) m— ⁇ ( R) m ⁇ Vcagm ⁇ V i (R) m + ⁇ (R) m is checked whether it satisfies the condition, and as a result, V i (R), ⁇ (R), Vcag vectors are constructed If none of the 20 components are determined to satisfy the condition of VU (R) m ⁇ (R) m ⁇ Vcagm ⁇ VjU (R) m + Va (R) ra, Emotion information corresponding to the characteristic vector Vcag is determined to be unidentifiable. '
  • Fig. 1 17 shows the characteristic vector of vibration information corresponding to each emotion information of user a.
  • This figure shows Acc + (1) axis, Acc + (2) axis, Acc + (3) axis, Tac + (1) axis, Tac + (2) axis, Tac + (3) axis, Acc- (1) axis, Acc- ( 2) Axis, Acc- (3) Axis, Tac- (1) Axis, Tac-(2) Axis, Tac- (3) Axis, Igr I R (l) Axis, Igr_R (2) Axis, Tgr_R (1) It is shown as a 20-dimensional space consisting of the axis, Tgr 1 R (2) axis, Igr—L (l) axis, Igr_L (2) axis, Tgr_L (l) axis, and Tgr—L (2) axis.
  • the characteristics corresponding to user a's emotional information “sadness / weak” Corresponds to the distribution of Beta G county V 9 and its central vector V 9, and user a's emotional information “disgust 'weak” Distribution of the characteristic vector county VI 5 and its central vector, VjU 1 5, distribution of the characteristic vector county VI 7 corresponding to the emotional information "Interesting 'medium” of the user a and its central Veta 1 Exists.
  • the feature vector Vcag generated in step S 1 7 3 5 in Fig. 1 1 4 is the feature vector group V3 0 corresponding to the emotion information “activity 'strong”. It is close to the center vector Vjt 30 of the distribution, and is identified as a feature vector indicating “activity / strong” as a result of Vcag's emotion information identification process described above. In this way, the emotion, state, and intensity of the user a are specified from the characteristic vector Vcag.
  • step S 1 8 6 learning unit 8 94 outputs the specific result to output control unit 9 14, and in step S 1 8 6 2, the acceleration information corresponding to emotion information E of user a Recalculate and accumulate the characteristic vector distribution fvc, distribution center vector V, and standard deviation vector ⁇ of the distribution of grip pressure information.
  • the feature vector Vcag generated in step S 1 7 3 5 in FIG. 11 is the feature of acceleration information and grip pressure information indicating the strong activity of the user a stored in the storage unit 8 95.
  • Vector County fvc, V i, and ⁇ ⁇ are newly calculated and stored in the storage unit 8 95.
  • the user's emotion, state, and intensity are specified from the acceleration information and the grip pressure information.
  • information on the feature vector in which the emotion, state, and intensity are specified is newly accumulated.
  • Game machine B can also generate emotional information from acceleration information and grip pressure information related to user b, and specify emotion information.
  • game machine A can specify emotion information of user a and user b.
  • step S 1 8 8 1 system control unit 8 9 7 determines whether or not output information has been selected, and waits until it is determined that it has been selected.
  • the output information is selected by the user selecting a menu displayed on a television or display connected to the game machine.
  • menus There are four types of menus that can be selected by the user: “specific results”, “information based on features”, “waveform information”, and “stored information”. If it is determined in step S 1 8 8 1 that the output information has been selected, the system control unit 8 9 7 proceeds to step S 1 8 8 2 and determines whether or not a specific result has been selected.
  • step S 1 8 8 If it is determined that the result is selected, in step S 1 8 8 3, 2-bit selection information 0 0 corresponding to the specific result is transmitted to the output control unit 9 1 4.
  • step S 1 88 4 the output control unit 9 14 controls the display of the character according to the emotion information identification result.
  • the TV or display connected to the game console displays the character selected by the user, and the output control unit 9 1 4 controls the character's facial expression and movement based on the specified emotion information. To do. For example, if “activity, strong” is specified as emotional information, the character's facial expression is energetic, and the character's limbs are moved up and down to express a healthy state.
  • step S 1 8 8 2 determines whether or not information based on the feature amount is selected. If it is determined that the information based on the feature value has been selected, the process proceeds to step S 1 8 86 and the 2-bit selection information 0 1 corresponding to the information based on the feature value is sent to the output control unit 9 1 4 Send.
  • step S 1 8 8 7 the output control unit 9 1 4
  • Acc + (1), Acc + (2), Acc + (3), Tac + (l), Tac + (2), Tac + (3), Acc-(1), Acc-(2), Acc- (3), Tac -(1), Tac- (2), Tac- (3)) are acquired from the feature extraction unit 9 1 2, and the process proceeds to step S 1 8 8 8 to generate a vibration presentation unit drive signal.
  • step S 1 2 2 the output levels are Acc + (1), Acc + ( 2 ), Acc + ( 3 ), and the output ON time is Tac + (l), Tac + (2), Tac + (3 ) And the output level are Acc-(1), Acc- (2), Acc- (3), and the output ON time is Tac- (1), Tac- (2), Tac- (3 A drive signal consisting of a rectangular wave is generated. Then, the process proceeds to step S 1 8 8 9, and the output control unit 9 14 drives the vibration presentation units 9 6 5 L and 9 6 5 R at the same time based on the generated drive signal. In step S 1 8 90, the output control unit 9 14
  • step S 1 8 9 1 Acquired from the feature extraction unit 9 1 2 and proceeds to step S 1 8 9 1 to generate a light presentation unit drive signal. That is, as shown in Fig. 123, the output amplitude is Igr_R (l), the output ON time is Tgr-R (l), and the output amplitude is
  • a drive signal composed of a sine wave is generated with Igr_R (2) and output ON time Tgr-R (2).
  • the output amplitude is Igr_L (l)
  • the output ON time is Tgr_L (l)
  • the output amplitude is Igr-L (2)
  • the output ON time is A drive signal consisting of a sine wave is generated with Tgr_L (2).
  • step S 1 89 2 the output control unit 914 drives the light presentation unit 964 R based on the drive signal shown in FIG. 123, and displays the light based on the drive signal shown in FIG. 124. Drives part 964 L.
  • step S 1 88 5 determines whether or not the information based on the feature value is not selected. If it is determined in step S 1 88 5 that the information based on the feature value is not selected, the system control unit 8 9 7 determines whether or not the waveform information is selected in step S 1 893, and the waveform If it is determined that the information is selected, in step S 1 894, 2-bit selection information 10 corresponding to the waveform information is output to the output control unit 9 14.
  • step S 1 895 the output control unit 914 acquires the acceleration information sampled from the feature extraction unit 9 1 2, and based on the acquired acceleration information, outputs the vibration presenting units 96 5 L and 965 R.
  • a drive signal to be driven is generated, and in step S 1 8 96, the vibration presenting portions 965 L and 965 R are driven simultaneously based on the drive signal.
  • step S 1 8 97 the output control unit 9 14 acquires the grip pressure information sampled from the feature extraction unit 9 1 2, and acquires the grip pressure information on the right side (the grip pressure sensor 96 3 R Based on the detected grip pressure information), a drive signal for driving the light-presenting unit 964 R is generated, and the obtained left hand grip pressure information (the grip pressure information detected by the grip pressure sensor 96 3 L) Based on the drive to drive the light presentation unit 964 L
  • the light presenting units 9 6 4 R and 9 6 4 L are driven based on the respective drive signals.
  • step S 1 8 9 3 determines whether or not accumulated information is selected. If it is determined that the stored information is not selected, error processing is executed in step S 1 90 4. If it is determined in step S 1 8 9 9 that the stored information has been selected, the system control unit 8 9 7 controls to output 2-bit selection information 0 1 corresponding to the stored information in step S 1 9 0 0. Output to part 9 1 4.
  • a further submenu is displayed on the TV or display connected to the game machine, and the user can select which stored information is output to which game machine.
  • the information type inf indicating the acceleration information or the grip pressure information, the information PID specifying the individual, the emotion information E, and the information To indicating the output destination are selected.
  • acceleration information or grip pressure information is selected as inf, user a as PID, strong activity as E, and user b as the output destination.
  • the system control unit 8 9 7 determines whether the information type inf, the information PID for identifying the individual, the emotion information E, and the output destination To are selected, and determines that they are selected. Wait until
  • step S 1 90 2 the system control unit 8 9 7 generates (inf, PID, E, To) information based on the information selected by the user, and transmits it to the output control unit 9 14. .
  • step S 1 90 3 the output control section 9 14 performs a stored information output process which will be described later with reference to FIG. As a result, a signal based on the selected information type inf, information PID for identifying an individual, and emotion information E is generated, and the generated signal is transmitted based on the output destination To.
  • step S 1 9 2 the output controller 9 14 obtains the center vector of acceleration information and grip pressure information from the accumulator 8 95 5 based on the selected information (PID, E).
  • the central vector V // 30 (Acc + 30) of the characteristic vector distribution of the acceleration information and the grip pressure information corresponding to the “activity.strong” of the user a accumulated in the accumulation unit 8 95.
  • step S 1 9 2 the output controller 9 1 4 determines whether or not acceleration information is selected as the information type inf. If it is determined that acceleration information is selected, step S 1 9 2 3 Proceed to step 1 to extract the 1st to 1st and 2nd components of V / 30.
  • step S 1 9 24 to generate a vibration presenting unit drive signal. That is, as shown in Fig. 1 2 5, the output level is Acc + 30 (1), Acc + 30 (2), Acc + 30 (3), and the output ON time is Tac + 30 (1), Tac Square wave with +30 (2), Tac + 30 (3) and output level Acc- 3 0 (1), Acc- 3 0 (2), Acc- 3 0 ( 3 ), output ON time A drive signal consisting of a rectangular wave with Tac-30 (1), Tac-30 (2), and Tac-30 (3) is generated.
  • step S 1 9 2 5 the output control unit 9 1 4 determines whether or not the output destination To is the user of the own terminal (game machine), and if it is determined that it is not the user of the own terminal Proceed to step S 1 9 2 7 to transmit a drive signal to the output destination terminal. For example, when the user b is selected as the output destination To, the drive signal is transmitted to the terminal (game machine B) of the user b.
  • step S 1 9 2 8 the game machine B receives the drive signal from the information receiving unit 9 2 2 and sends the drive signal to the output control unit 9 1 4 via the information discriminating unit 9 11. Supplied. Based on the drive signal, the output control unit 9 14 of the game machine B drives the vibration presenting units 9 6 5 R and 9 6 5 L of the game machine B at the same time. 8
  • step S 1 9 2 5 If it is determined in step S 1 9 2 5 that the output destination To is the user of the terminal (game machine), the process proceeds to step S 1 9 2 6, and the output control unit 9 1 4 receives the drive signal. Based on the above, the vibration display parts 9 6 5 R and 9 6 5 L of the terminal (game machine) are driven simultaneously.
  • step S 1 9 2 2 If it is determined in step S 1 9 2 2 that acceleration information is not selected as the information type inf (if grip pressure information is selected), the process proceeds to step S 1 9 2 9 and the output control unit 9 1 4 extracts the 13th through 20th components of Vj «30.
  • step S 1 9 30, and the output control unit 9 14 generates a light presenting unit drive signal. That is, as shown in Fig. 1 26, the output amplitude is Igr_R30 (l), the output ON time is Tgr_R30 (l), and the output amplitude is Igr-R30 (2). A drive signal consisting of a sine wave with an ON time Tgr_R30 (2) is generated. Also, as shown in Fig.
  • step S 1 9 3 the output control unit 9 1 4 determines whether or not the output destination To is the user of the own terminal (game machine), and if it is determined that it is not the user of the own terminal Proceed to step S 1 9 3 3 and send a drive signal to the output destination terminal. For example, when the user b is selected as the output destination To, the drive signal is transmitted to the terminal (game machine B) of the user b.
  • step S 1 9 3 4 the game machine B receives the drive signal from the information receiving unit 9 2 2, and the drive signal is sent to the output control unit 9 1 4 via the information discriminating unit 9 11. Supplied.
  • the output control unit 9 14 of game machine B drives the light presentation unit 9 6 4 R of game machine B, and the drive signal shown in FIG. 1 2 7. Based on the above, the light presenting part 9 64 L of the game machine B is moved to the horse.
  • step S 1 9 3 1 If it is determined in step S 1 9 3 1 that the output destination To is the user of the terminal (game machine), the process proceeds to step S 1 9 3 2, where the output control unit 9 1 4 Based on the drive signal shown in Fig. 6, it drives the light presentation part 9 6 4 R of its own terminal (game machine), and presents its own terminal (game machine) based on the drive signal shown in Fig. 1 27 Drive part 9 6 4 L.
  • the user can display and recognize the emotion, state, and intensity determined from the acceleration information and the grip pressure information.
  • Acceleration information can be sensed by the vibration of the game console controller
  • grip pressure information can be sensed by the light emitted by the game console controller.
  • the acceleration information or the grip pressure information corresponding to the specific emotion information of a specific individual desired by the user can be specified to allow a specific partner to experience it.
  • a more realistic game can be played by experiencing the emotion, state, and strength of the communicating party.
  • the embodiment of the present invention has been described by dividing it into the first embodiment, the second embodiment, the third embodiment, and the fourth embodiment. However, the first embodiment, the second embodiment, and the second embodiment are described.
  • One terminal may be configured by combining the third and fourth embodiments.
  • the steps for executing the series of processes described above in this specification are not limited to the processes performed in time series according to the described order, but may be performed in parallel or individually even if not necessarily performed in time series. The process to be executed is also included. Industrial applicability
  • biometric information keyboard vibration information, mouse click information, grip pressure information, game console controller acceleration information, and grip pressure information
  • biometric information keyboard vibration information, mouse click information, grip pressure information, game console controller acceleration information, and grip pressure information
  • grip pressure information game console controller acceleration information, and grip pressure information

Abstract

本発明は、情報処理装置を用いて、生体情報などの非定義情報から、使用者の感情・状態を特定できるようにする情報処理装置および方法、プログラム、並びに記録媒体に関する。入力部91で使用者の脈拍情報と体動情報を取得し、特徴抽出部112において、脈拍情報と体動情報の特徴量ベクトルを生成する。学習部94において、生成された特徴量ベクトルと蓄積部95に蓄積された特徴量ベクトルを比較し、使用者の感情・状態を特定し、出力制御部114を経由して出力部92へ出力する。また、新たに生成された特徴量ベクトルを蓄積部95に蓄積されたベクトルに加えて、ベクトルの分布、分布の中心、標準偏差を再計算し、蓄積部95に蓄積する。

Description

明細書
情報処理装置および方法、 プログラム、 並びに記録媒体 技術分野
本発明は情報処理装置おょぴ方法、 プログラム、 並びに記録媒体に関し、 特に、 使用者の個性を反映する様々な情報から特徴を抽出し、 学習を行い、 その学習結 果をもとに、 使用者の感情、 状態、 およびその強度を特定することができるよう にした情報処理装置および方法、 プログラム、 並びに記録媒体に関する。 背景技術
従来、 情報処理装置を用いたコミュニケーションとして、 電話、 メール、 チヤ ットなどが用いられている。 情報処理装置を介さない対面時におけるコミュニケ ーシヨンでは、 言葉を用いた意味伝達のみならず、 表情、 動作、 気配など様々な 手段で、 感情、 状態などの情報も伝達される。 それに対して、 電話、 メール、 チ ャットなどは、 主に、 言葉を用いた意味伝達には有効であるが、 言葉で表現され ていない感情、 状態、 気配などを伝える事はできない。 また、 インターネット上 で行われているバーチャルコミュ-ケーションにおいては、 アバターと言われる コンピュータ合成画像なども用いられているが、 人の感情を十分表現するには到 つていない。
このように、 現状では、 情報処理装置を用いたコミュニケーションにおいて、 極めて制限された情報のやり取りが行われているに過ぎない。
そこで、 音声情報、 画像情報、 バイタルサイン (生体情報) といった情報を通 信し、 それらの情報をもとに操作者の心理や生理状態を推定し、 推定量を出力す る通信装置が、 提案されている。 (例えば、 特開 2 0 0 2— 3 4 9 3 6号公報 (以下、 特許文献 1と称する) 参照) 。
特許文献 1の技術では、 使用者の生体情報について各平均値からのずれが算出 され、 その結果から操作者の感情や状態を推定されている。 しかし、 このような 単純な推定アルゴリズムを用いて人間の感情や状態を "喜" "怒" "哀" "楽" などに一義的に推定した結果は、 必ずしも正しいと言えず、 このような推定結果 を表示する事は、 操作者ならぴに操作者間に誤解を生じさせ、 かえってコミュ二 ケーシヨンの阻害要因となるおそれがある。
また、 情報の表示に関しては、 表、 グラフ、 または図形を用いる、 顔の表情、 色などを変化させて表示する、 音声あるいは音情報を加工するといつた方法が示 されているが、 生体情報から推定される感情や状態、 更には、 人の動作や気配な どの情報を表示する方法としては不十分であるという課題があった。 発明の開示
本発明は、 使用者の感情や状態を、 その強度とともに特定することを可能にす る。 また、 非言語的情報を用いてコミュニケーションができるようにするもので ある。
本発明の情報処理装置は、 非言語的情報と言語的情報の入力を受け付ける入力 受付手段と、 入力された非言語的情報を言語的情報に関係付けて、 使用者の感情 を学習する学習手段と、 学習手段による学習の結果得られた情報を蓄積する蓄積 手段と、 入力された非言語的情報、 または蓄積された非言語的情報を所定の信号 に変換し、 出力する出力手段とを備えることを特徴とする。
前記学習手段は、 使用者の感情を、 その強度とともに学習することができる。 前記学習手段は、 新たに非言語的情報が入力されたとき、 蓄積手段に蓄積され た非言語的情報に基づいて、 使用者の感情を特定し、 出力手段は、 学習手段が特 定した結果を出力することができる。
前記蓄積手段は、 学習手段により特定された感情に対応する非言語的情報を、 蓄積手段に蓄積された非言語的情報に付加してさらに蓄積することができる。 非言語的情報の特徴を表す変数を生成する変数生成手段をさらに備え、 学習手 段は、 生成された変数を統計的に処理し、 変数を蓄積手段に蓄積することができ る。 前記学習手段は、 入力された非言語的情報から変数生成手段が生成した変数と、 蓄積手段に蓄積された変数を比較して、 使用者の感情を特定することができる。 前記入力手段は、 非言語的情報として、 使用者の脈拍情報、 または体動情報の 入力を受け付けることができる。
前記入力手段は、 非言語的情報として、 使用者の打鍵による振動情報の入力を 受け付けることができる。
前記入力手段は、 非言語的情報として、 使用者のマウス握り圧情報、 または環 境温度情報の入力を受け付けることができる。
本発明の情報処理装置は、 オンラインゲームを行うゲーム機とすることができ る。
前記入力手段は、 非言語的情報としてゲーム機のコントローラの加速度情報、 または握り圧情報の入力を受け付けることができる。 '
前記出力手段は、 蓄積された非言語的情報のうち、 使用者が指定した特定の非 言語的情報を抽出し、 抽出された非言語的情報を所定の信号に変換し、 使用者が 指定する他のゲーム機に出力することができる。
本発明の情報処理方法は、 非言語的情報と言語的情報の入力を受け付ける入力 受付ステップと、 入力された非言語的情報を言語的情報に関係付けて、 使用者の 感情を学習する学習ステップと、 学習ステップの処理による学習の結果得られた 情報を蓄積する蓄積ステップと、 入力された非言語的情報または、 蓄積された非 言語的情報を所定の信号に変換し、 出力する出力ステップとを含むことを特徴と する。
本発明のプログラムは、 非言語的情報と言語的情報の入力の受け付けを制御す る入力受付制御ステップと、 入力された非言語的情報を言語的情報に関係付けて、 使用者の感情の学習を制御する学習制御ステップと、 学習制御ステップの処理に よる学習の結果得られた情報の蓄積を制御する蓄積制御ステツプと、 入力された 非言語的情報または、 蓄積された非言語的情報の所定の信号への変換、 出力を制 御する出力制御ステップとをコンピュータに実行させることを特徴とする。 本発明の記録媒体は、 非言語的情報と言語的情報の入力の受け付けを制御する 入力受付制御ステップと、 入力された非言語的情報を言語的情報に関係付けて、 使用者の感情の学習を制御する学習制御ステップと、 学習制御ステップの処理に よる学習の結果得られた情報の蓄積を制御する蓄積制御ステップと、 入力された 非言語的情報または、 蓄積された非言語的情報の所定の信号への変換、 出力を制 御する出力制御ステップとをコンピュータに実行させるプログラムが記録されて いることを特徴とする。
本発明の情報処理装置および方法、 プログラム並びに記録媒体においては、 非 言語的情報と言語的情報の入力が受け付けられ、 入力された非言語的情報が言語 的情報に関係付けられ、 使用者の感情が学習される。 入力された非言語的情報、 または蓄積された非言語的情報が所定の信号に変換され、 出力される。
なお、 以上において感情とは、 喜ぴ、 嫌悪のような感情だけを表すものではな く、 活性、 安定のような状態を含めて表すものである。 図面の簡単な説明
図 1は、 本発明の情報処理装置の接続形態を示す図である。
図 2は、 本発明の情報処理装置おける入力される情報と蓄積される情報を示す 図である。
図 3は、 感情■状態に対応する特徴量の分布を示す図である。
図 4は、 感情 ·状態に対応する特徴量べクトルの分布を示す図である。
図 5は、 本発明の第 1の情報処理装置の構成例を示すプロッ 図である。 図 6は、 図 5の入力部の構成例を示す図でプロック図ある
図 7は、 図 5の出力部の構成例を示すプロック図である。
図 8は、 図 5の出力部の構成例を示すブロック図である。
図 9は、 端末 Aと端末 Bの間で送受信される情報を示す図である。
図 1 0は、 端末 Aと端末 Bの間で送受信される情報を示す図である。
図 1 1は、 送信設定情報と受信設定情報の内容を示す図である。 図 1 2は、 生体情報蓄積処理を説明するフローチャートである。
図 1 3は、 生体情報蓄積処理を説明するフローチャートである。
図 1 4は、 特徴量べク トル Vcl生成処理を説明するフローチャートである。 図 Ί 5は、 特徴量べク トル Vcl生成処理を説明するフローチャートである。 図 1 6は、 極性判定処理を説明するフローチャートである。
図 1 7は、 Tv出力処理を説明するフローチャートである。
図 1 8は、 Vinin, Vraax判定処理を説明するフローチャートである。
図 1 9は、 波形情報のサンプリング方法を示す図である。
図 2 0は、 Tv出力処理、 Vmin, Vmax判定処理の結果得られる情報を示す図で ある。
図 2 1は、 特徴量べク トル Vc 2生成処理を説明するフローチヤ一トである。 図 2 2は、 特徴量べク トル Vc 2生成処理を説明するフローチヤ一トである。 図 2 3は、 感情 ·状態を表す語句を示す図である。
図 2 4は、 感情 ·状態の強度を表す語句を示す図である。
図 2 5は、 脈拍情報の波形を示す図である。
図 2 6は、 体動情報の波形を示す図である。
図 2 7は、 端末 Bの蓄積部に蓄積される情報を示す図である。
図 2 8は、 感情■状態特定処理を説明するフローチヤ一トである。
図 2 9は、 特徴量べク トル Vc l生成処理を説明するフローチヤ一トである。 図 3 0は、 特徴量べク トル Vc l生成処理を説明するフローチヤ一トである。 図 3 1は、 特徴量べク トル Vc 2生成処理を説明するフローチヤ一トである。 図 3 2は、 特徴量べク トル Vc 2生成処理を説明するフローチヤ一トである。 図 3 3は、 Vc lの感情、 状態、 およびその強度特定処理を説明するフローチ ヤートである。
図 3 4は、 Vc lと各べクトルの内積値の計算結果データを示す図である。 図 3 5は、 Vc lと各べク トルの分布の関係を示す図である。 図 3 6は、 Vc 2の感情、 状態、 およびその強度特定処理を説明するフローチ ヤートである。
図 3 7は、 Vc 2と各べク トルの内積値の計算結果データを示す図である。 図 3 8は、 Vc 2と各べク トルの分布の関係を示す図である。
図 3 9は、 特定結果出力、 再計算の処理を説明するフローチャートである。 図 4 0は、 情報出力処理を説明するフローチャートである。
図 4 1は、 情報出力処理を説明するフローチャートである。
図 4 2は、 情報出力処理において出力される情報の波形を示す図である。 図 4 3は、 情報出力処理において出力される情報の波形を示す図である。 図 4 4は、 本発明の第 2の情報処理装置の構成例を示すブロック図である。 図 4 5は、 図 4 4の入力部の構成例を示す図でプロック図ある
図 4 6は、 図 4 4の出力部の構成例を示すプロック図である。
図 4 7は、 端末 Aと端末 Bの間で送受信される情報を示す図である。
図 4 8は、 端末 Aと端末 Bの間で送受信される情報を示す図である。
図 4 9は、 振動情報蓄積処理を説明するフローチャートである。
図 5 0は、 振動情報蓄積処理を説明するフローチャートである。
図 5 1は、 特徴量べク トル Vc生成処理を説明するフローチャートである。 図 5 2は、 特徴量べク トル Vc生成処理を説明するフローチヤ一トである。 図 5 3は、 端末 Bの蓄積部に蓄積される情報を示す図である。
図 5 4は、 キーボード振動情報の波形を示す図である。
図 5 5 Aは、 キーボード振動情報から得られるデータを示す図である。
図 5 5 Bは、 キーボード振動情報から得られるデータを示す図である。
図 5 6は、 感情 ·状態特定処理を説明するフローチャートである。
図 5 7は、 特徴量べク トル Vch生成処理を説明するフローチャートである。 図 5 8は、 特徴量べク トル Vch生成処理を説明するフローチヤ一トである。 図 5 9は、 Vchの感情、 状態、 およびその強度特定処理を説明するフローチヤ ートである。 図 6 0は、 Vchと各べク トルの分布の関係を示す図である。
図 6 1は、 特定結果出力、 再計算の処理を説明するフローチャートである。 図 6 2は、 情報出力処理を説明するフローチャートである。
図 6 3は、 情報出力処理を説明するフローチャートである。
図 6 4は、 情報出力処理において出力される情報の波形を示す図である。 図 6 5は、 情報出力処理において出力される情報の波形を示す図である。 図 6 6は、 本発明の第 3の情報処理装置の構成例を示すブロック図である。 図 6 7は、 図 6 6の入力部の構成例を示す図でプロック図ある
図 6 8は、 図 6 6の出力部の構成例を示すプロック図である。
図 6 9は、 端末 Aと端末 Bの間で送受信される情報を示す図である。
図 7 0は、 端末 Aと端末 Bの間で送受信される情報を示す図である。
図 7 1は、 クリック情報、 握り圧情報蓄積処理を説明するフローチャートであ る。
図 7 2は、 クリック情報、 握り圧情報蓄積処理を説明するフローチャートであ る。
図 7 3は、 特徴量べク トル Vc生成処理を説明するフローチヤ一トである。 図 7 4は、 タリック特徴算出処理を説明するフローチャートである。
図 7 5は、 握り圧特徴算出処理を説明するフローチャートである。
図 7 6は、 感情■状態申告チャートの表示例を示す図である。
図 7 7は、 感情■状態申告情報の構成例を示す図である。
図 7 8は、 端末 Bの蓄積部に蓄積される情報を示す図である。
図 7 9は、 マウスのタリック情報の波形を示す図である。
図 8 0は、 マウスの握り圧情報の波形を示す図である。
図 8 1は、 感情 '状態特定処理を説明するフローチャートである。
図 8 2は、 特徴量べク トル Vc生成処理を説明するフローチヤ一トである。 図 8 3は、 タリック特徴算出処理を説明するフローチャートである。
図 8 4は、 握り圧特徴算出処理を説明するフローチヤ一トである。 図 8 5は、 Vcの感情、 状態、 およびその強度特定処理を説明するフローチヤ 一トである。
図 8 6は、 Vcと各べクトルの分布の関係を示す図である。
図 8 7は、 特定結果出力、 再計算の処理を説明するフローチャートである。 図 8 8は、 情報出力処理を説明するフローチャートである。
図 8 9は、 情報出力処理を説明するフローチャートである。
図 9 0は、 情報出力処理において出力される情報の波形を示す図である。 図 9 1は、 情報出力処理において出力される情報の波形を示す図である。 図 9 2は、 本発明のゲーム機の接続形態を示す図である。
図 9 3は、 本発明のゲーム機の構成例を示す図である。
図 9 4は、 本発明のゲーム機のコントローラの構成例を示す図である。
図 9 5は、 ゲーム機 A、 ゲーム機 B、 およびサーバの間で送受信される情報を 示す図である。
図 9 6は、 ゲーム機 A、 ゲーム機 B、 およびサーバの間で送受信される情報を 示す図である。
図 9 7は、 特徴情報蓄積処理を説明するフローチャートである。
図 9 8は、 特徴情報蓄積処理を説明するフローチャートである。
図 9 9は、 特徴べクトル Vcの生成処理を説明するフローチヤ一トである。 図 1 0 0は、 加速度情報の特徴量算出処理を説明するフローチャートである。 図 1 0 1は、 加速度情報の特徴量算出処理を説明するフローチャートである。 図 1 0 2は、 ゲーム機のコントローラの加速度情報の波形を示す図である。 図 1 0 3は、 ゲーム機のコントローラの加速度情報から得られるデータを示す 図である。
図 1 0 4は、 握り圧情報の特徴量抽出処理を説明するフローチャートである。 図 1 0 5は、 握り圧情報の特徴量抽出処理を説明するフローチャートである。 図 1 0 6は、 ゲーム機のコントローラの右側の握り圧情報の波形を示す図であ る。 図 1 0 7は、 ゲーム機のコントローラの左側の握り圧情報の波形を示す図であ る。
図 1 0 8は、 ゲーム機のコントローラの右側の握り圧情報から得られるデータ を示す図である。
図 1 0 9は、 ゲーム機のコントローラの左側の握り圧情報から得られるデータ を示す図である。
図 1 1 0は、 ゲーム機のコントローラの加速度情報の波形を示す図である。 図 1 1 1は、 ゲーム機のコントローラの右側の握り圧情報の波形を示す図であ る。
図 1 1 2は、 ゲーム機のコントローラの左側の握り圧情報の波形を示す図であ る。
図 1 1 3は、 ゲーム機の蓄積部に蓄積される情報を示す図である。
図 1 1 4は、 感情状態特定処理を説明するフローチャートである。
図 1 1 5は、 特徴べク トル Vcag の生成処理を説明するフローチヤ一トである。 図 1 1 6は、 Vcagの感情情報特定処理を説明するフローチャートである。
図 1 1 7は、 Vcagと各べクトルの分布の関係を示す図である。
図 1 1 8は、 特定結果出力再計算処理を説明するフローチャートである。
図 1 1 9は、 情報出力処理を説明するフローチャートである。
図 1 2 0は、 情報出力処理を説明するフローチャートである。
図 1 2 1は、 蓄積情報出力処理を説明するフローチャートである。
図 1 2 2は、 情報出力処理において出力される振動呈示部駆動信号の波形を示 す図である
図 1 2 3は、 情報出力処理において出力される光呈示部駆動信号の波形を示す 図である
図 1 2 4は、' 情報出力処理において出力される光呈示部駆動信号の波形を示す 図である 図 1 2 5は、 情報出力処理において出力される振動呈示部駆動信号の波形を示 す図である。
図1 2 6は、 情報出力処理において出力される光呈示部駆動信号の波形を示す 図である。
図 1 2 7は、 情報出力処理において出力される光呈示部駆動信号の波形を示す 図である。 発明を実施するための最良の形態
以下に、 本発明の実施の形態について図面を参照して説明する。 図 1は本発明 の情報処理装置を利用したコミュ-ケーシヨンシステムの構成を示す図である。 本発明の情報処理装置である端末 1、 端末 2、 および端末 3はそれぞれネット ワーク 1 1に接続され、 互いに情報通信を行うことが可能である。
端末 1 (端末 A) 、 端末 2 (端末 B ) 、 端末 3 (端末 C ) にはそれぞれ、 情報 の入力を受け付ける入力部 9 1 A乃至 9 1 C、 入力された情報を処理する処理部 9 3 A乃至 9 3 C、 入力された情報から使用者の感情、 状態、 およびその強度を 学習、 特定する学習部 9 4 A乃至 9 4 C、 学習部によって学習、 特定された情報 を蓄積する蓄積部 9 5 A乃至 9 5 C、 学習部によって特定された情報、 または蓄 積部に蓄積された情報を出力する出力部 9 2 A乃至 9 2 C、 情報の送受信を行う 通信部 9 6 A乃至 9 6 C、 および各部を制御するシステム制御部 9 7 A乃至 9 7 Cが設けられている。
なお、 端末 1 (端末 A ) 乃至端末 3 (端末 C ) の構成は同一であるため、 それ らを構成する入力部 9 1 A乃至システム制御部 9 7 A、 入力部 9 1 B乃至システ ム制御部 9 7 B、 並びに入力部 9 1 C乃至システム制御部 9 7 Cは、 それぞれ同 一の機能を有している。 以下においては、 それらを個々に区別する必要がない場 合には、 入力部 9 1乃至システム制御部 9 7と、 まとめて表現する。
図 2に示すように、 端末 1、 端末 2、 または端末 3の入力部に入力される情報 は、 定義情報と非定義情報に分類される。 定義情報とは、 その情報単独で、 一義 的に解釈が可能な情報であり、 言語や意味の決まった記号、 意図的に行われる特 定の操作によって決まった情報を伝達できる自己申告情報などが、 これに相当す る。
一方、 非定義情報とは、 その情報単独では、 多様な解釈が可能、 もしくは解釈 が困難な情報であり、 脈拍、 血流、 血圧、 呼吸、 体温、 皮膚表面温、 皮膚電気抵 抗、 発汗、 脳波、 脳磁などの生理情報、 体の移動、 頭部の移動などの体動情報、 打鍵による振動、 マウスを握る圧力などの情報が、 これに相当する。
処理部 9 3では、 入力された定義情報から使用者の感情、 状態、 およびその強 度 (感情情報 E ) が抽出され、 非定義情報からは、 特徴量 Cと、 信号レベル列が 抽出され、 学習部 9 4に送られる。
学習部 9 4に送られた感情情報 E、 特徴量 C、 および信号レベル列は、 統合さ れた後、 蓄積部 9 5に、 特定の個人毎に Dataとして蓄積される。 Dataは、 蓄積 情報としての PID、 CD、 CSDから構成される。
PIDは、 氏名、 ニックネーム、 電子メールアドレスや個人に割り当てられた番 号などの記号、 性別、 生年月日、 居住地、 血液型などで構成され、 個人を特定す る情報である。
CDは、 特定情報 PIDにより特定された個人の感情情報 E、 入力された非定義 情報から抽出された 1つの特徴量 Cの分布 fc、 その分布の中心値 //、 標準偏差 σ、 使用者が情報を入力した時点における使用者の周辺環境情報 (温度、 湿度、 環境音情報、 近接者数、 気象情報、 位置情報など) Κρ、 および情報が蓄積され た日時 Τにより構成される。 感情 ·状態は、 表 示す通り 1 2通りに分別される。 感情 ·状
喜び
驚き
悲しみ
怒り
嫌悪
興味
恥じ
安疋
安定
活性
不隨 く表 1 >
さらに、 各感情 ·状態は、 強、 中、 弱の 3種類の強度に分けられ、 感情情報 E は 3 6 (= 1 2 X 3 ) 通りとなる。 従って単独情報 CDは 1つの特徴量毎に 3 6 個存在することになり、 特徴量の数を mとすると、 単独情報 CDは 1個人毎に 3 6 X m個存在する。
蓄積情報である CSDは、 特定情報 PIDにより特定された個人の感情情報 E、 非 定義情報から抽出された複数の特徴量 Cを組み合わせたベタトル Vcの分布 fvc、 分布の中心べク トノレ V ju、 分布の標準偏差べクトル ν σ、 入力者が情報を入力し た時点における入力者の周辺環境情報 (温度、 湿度、 環境音情報、 近接者数、 気 象情報、 位置情報など) ΚΡ、 情報が蓄積された日時 Τにより構成される。
感情 ·状態は、 表 1に示す通り 1 2通りに分別され、 さらに、 各感情 '状態は、 強、 中、 弱の 3種類の強度に分けられ、 感情情報 Εは 3 6通りとなる。 従って 複数情報 CSDは、 1個人毎に 3 6個存在する。 蓄積部 9 5に蓄積された情報は、 使用者の感情 ·状態を学習したり、 特定した りするときに参照され、 新しい情報が加えられた後、 あらためて蓄積部 9 5に蓄 積される。
蓄積部 9 5に十分な情報が蓄積された後は、 非定義情報のみから、 情報処理装 置が、 特定の個人の感情、 状態、 およびその強度を特定することができる。 この 場合、 入力された非定義情報の特徴量を抽出され、 蓄積部 9 5に蓄積された特定 の個人に対応する情報と比較される。
例えば、 処理部 9 3において、 特定の個人 aについて、 非定義情報から複数 の特徴量 C1,C2, . . Cmが抽出されたとする。 学習部 9 4において、 この抽出さ れた複数の特徴量から、 特徴量ベク トル Vex (C1, C2. . . Cm) が生成される。 そして、 学習部 9 4は、 蓄積部 9 5に蓄積された個人 aについての複数情報 CSDを読み出し、 蓄積されている全ての感情、 状態、 およびその強度に対応する 中心べク トノレ V 1,V 2, . . . V〃36を読み出す。
次に、 特徴量ベク トル Vexと各中心ベク トル VjU n (n=l, 2 , . . . 3 6 ) の内積(Vcx, V n)が算出される。 さらに、 内積(Vcx, V n)の値が大きい分布か ら順番に、 全てのベクトル成分に対して、 (V nm-σηιη)≤Vcxm≤ (V〃nra+ nm) の条件を満たしているか判定される。 ここで、 Vjt nmは、 V z nの m番目の成分 を表し、 σηιηは、 分布 fvcnの標準偏差ベク トル σηの m番目の成分を表し、 Vcxmは、 Vexの m番目の成分を表している。
図 3は、 特徴量 Cの感情情報 E1乃至 Enに対応する分布を示した図であり、 縦軸は特徴量の分布 fcを表し、 横軸は特徴量 Cの値を表している。 図 3の例の 場合、 特徴量 Cの値が Vcxmとなったとき、 感情情報 E2に対応する分布におい て、 (V i 2m- σ2ηι)≤Vcxtn≤ (V β 2m+ σ2πι)の条件を満たしている。
このように、 ベクトルを構成する全ての成分について、 条件を満たすか否かが 判定され、 Vexは、 条件を満たした分布の内、 内積(Vcx,V n)の値が最大とな る分布に属すると判定する。 図 4は、 入力された非定義情報から生成された、 特徴量べク トル Vexと、 蓄 積部 9 5に蓄積されている各感情情報に対応する特徴量べクトルの分布の関係を 示す図である。 これらのベク トルは m個の成分をもっているので、 軸 chl、 軸 ch2. . . 軸 chm により構成される m次元の空間に存在する。 この空間の中には、 感情情報 E1に対応する特徴量べクトルの分布 fvc l、 その分布の中心べク トル V〃l、 感情情報 E2に対応する特徴量べク トルの分布 fvc2、 その分布の中心べク トル V i 2、 および感情情報 Enに対応する特徴量べクトルの分布 fvcnが存在す る。
各中心べク トル V j( l、 V i 2および V jU nと Vexの内積値(Vex, V 1)、
(Vcx,V〃2)、 および(Vcx, V〃n)の中で、 最大となるのは(Vex, V i 2)であり、 つ Vexおよび V / 2を構成する ^個の成分全てにっぃて(¥ ^ 2111- CT 2m)≤Vcxm≤(V 2m+ 2ra)の条件を満たしているので、 Vexは、 感情情報 E2 に対応する分布に属するものと判定される。
このようにして、 入力された非定義情報から、 特定された個人の感情、 状態、 およびその強度を特定することができる。
実施の形態 1
図 5に本発明の第 1の情報処理装置の構成例を示す。 この情報処理装置は、 携 帯電話などに適用することができる。 この情報処理装置には、 使用者の音声情報、 脈拍情報、 および距離情報の入力を受け付ける入力部 9 1、 入力部 9 1から入力 された情報を処理する処理部 9 3、 処理部 9 3から出力された特徴情報と感情情 報に基づいて、 学習、 特定を行う学習部 9 4、 学習部 9 4から出力された学習情 報、 特定情報を蓄積する蓄積部 9 5、 処理部 9 3から出力された出力情報に基づ いて、 情報を出力する出力部 9 2、 通信を行う通信部 9 6、 および各部を制御す るシステム制御部 9 7が設けられている。
処理部 9 3には、 入力部 9 1から入力された情報を、 音声情報、 脈拍情報、 ま たは体動情報に分別する情報弁別部 1 1 1、 脈拍情報と体動情報から特徴情報を 抽出する特徴抽出部 1 1 2、 音声情報から感情情報を抽出する意味抽出部 1 1 3、 および出力部 9 2に出力情報を出力する出力制御部 1 1 4が設けられている。 通 信部 9 6には、 情報の送信を行う情報送信部 1 2 1、 情報の受信を行う情報受信 部 1 2 2が設けられている。
図 6に入力部 9 1の構成例を示す。 この例では、 使用者の音声を取得するマイ ク 1 3 1、 使用者の脈拍を検知する脈波センサ 1 3 2、 使用者の体の動きを検知 する測距センサ 1 3 3、 文字、 数字などの情報を入力するキーボード 1 3 4、 マ イク 1 3 1からの信号を認識する音声認識部 1 3 5、 脈波センサ 1 3 2からの信 号を増幅する電源アンプ部 1 3 6、 測距センサ 1 3 3からの信号を増幅する電源 アンプ部 1 3 7により構成されている。
図 7と図 8に出力部 9 2の構成例を示す。 図 7の例では、 所定の信号に基づい てォブジェク トを移動させる移動ォブジェクト 1 5 2、 移動オブジェク ト 1 5 2 を駆動する電源駆動部 1 5 1により構成されている。 また、 移動オブジェクト 1 5 2は、 オブジェクト 1 7 3、 駆動用ベルト 1 7 4、 サーポモータ 1 7 1、 お ょぴ回転軸 1 7 2により構成されている。
図 8の例では、 所定の信号に基づいて、 光を発する発光部 1 9 2と発光部 1 9 2を駆動する電源アンプ部 1 9 1により構成されている。
使用者 aがもっている情報処理装置を端末 Aとし、 使用者 bがもっている情 報処理装置を端末 Bとして、 使用者 aと使用者 bがそれぞれの端末を用いて、 相互に通信を行う場合、 図 9に示される手順で情報の送受信が行われる。 最初に 端末 Aは、 端末 Bに接続要求を送信し、 それに対応して端末 Bは端末 Aに接続 応答を送信する。 その後、 端末 Aと端末 Bの間で、 メール、 チャットなどの文 字情報、 会話で送受信される音声情報や CCDカメラなどで取得された画像情報 を送受信する。
次に端末 Aは生体情報 (この例の場合、 使用者の脈拍情報と体動情報) の送 受信の初期設定を行い、 端末 Bに送受信要求を送信する。 このとき、 端末 Aカ ら図 1 1に示される送信設定情報と受信設定情報が送信される。 送信設定情報は、 情報送信モードの選択 ms、 情報処理方法の選択 t s、 情報出 力形式の設定権の選択 dsにより構成される。 受信設定情報は、 情報受信モード の選択 mr、 情報処理方法の選択 tr、 情報出力形式の設定権の選択 drにより構 成される。
情報送信モードの選択 msは、 生体情報を送信するか否かを示し、 情報処理方 法の選択 tsは、 送信時に生体情報の処理を行うか否かを示し、 情報出力形式の 設定権の選択 dsは、 送信した生体情報の出力形式の設定を送信側で行うか、 受 信側で行うかを示す。
情報受信モードの選択 mrは、 生体情報を受信するか否かを示し、 情報処理方 法の選択 trは、 受信時に生体情報の処理を行うか否かを示し、 情報出力形式の 設定権の選択 drは、 受信した生体情報の出力形式の選択を送信側で行うか、 受 信側で行うかを示す。
端末 Aから生体情報の送信要求を受け取った端末 Bは、 生体情報送受信設定 の変更を行い、 端末 Aに応答を送信する。
そして端末 Aから端末 Bに使用者 aの生体情報が送信され、 端末 Bから端末 A に使用者 bの生体情報が送信される。 端末 A、 端末 Bにはそれぞれ生体情報が蓄 積される。
端末 Aから端末 Bに接続終了要求が送信されると、 端末 Bはそれに応答し、 通信は終了する。
このようにして、 端末 Aと端末 Bの間で通信が行われ、 生体情報が蓄積され る。 生体情報が充分に蓄積された後は、 図 1 0に示されるように情報の送受信が 行われる。 すなわち、 端末 Aと端末 Bとの間で生体情報が送受信されると、 端 末 Aと端末 Bにおいて、 使用者の感情 ·状態の特定処理が行われる。
次に図 1 2を参照して、 端末 B における生体情報蓄積処理について説明する。 最初に端末 Bのシステム制御部 9 7は、 ステップ S 1において、 端末 Aとの通 信開始時に、 通信相手である端末 A の使用者 a を特定する情報 (例えば、 氏名、 ニックネームなど) PIDを取得する。 ステップ S 2において、 端末 Bのシステム 制御部 9 7は、 情報弁別部 1 1 1に、 端末 Aから送信されてきた使用者 aの音 声情報が入力されたか否かを判定させ、 入力されたと判定されるまで待機する。 ステップ S 2において、 音声情報が入力されたと判定された場合、 ステップ S 3に進み、 端末 Bのシステム制御部 9 7は、 特徴抽出部 1 1 2に、 端末 Aから 送信されてきた使用者 aの脈拍情報、 体動情報のサンプリング処理を開始させ る。 そして、 ステップ S 4に進み、 端末 Bのシステム制御部 9 7は、 意味抽出 部 1 1 3に音声の認識を行わせる。 ステップ S 5において、 端末 Bのシステム 制御部 9 7は、 認識された音声の中に感情、 状態およびその強度を表す語句があ るか否かを判定し、 感情、 状態およびその強度を表す語句がないと判定された場 合、 ステップ S 2に戻り以降の処理を繰り返し実行する。 感情 ·状態を表す語句 は図 2 3に示されるようなものであり、 強度を示す語句は図 2 4に示されるよう なものである。
ステップ S 5において、 感情、 状態およびその強度を示す語句があると判定さ れた場合、 端末 Bのシステム制御部 9 7は、 ステップ S 6において、 認識され た語句の主語は使用者か否か、 すなわち、 認識された語句が、 使用者 a の感情、 状態およびその強度を表す語句であるか否かを判定し、 主語は使用者ではないと 判定された場合、 ステップ S 2に戻り、 以降の処理を繰り返し実行する。
ステップ S 6において、 主語は使用者であると判定された場合、 端末 Bのシ ステム制御部 9 7は、 ステップ S 7において、 使用者 aの音声が 1フレーズ分 入力されたか否かを判定し、 1フレーズ分入力されたと判定されるまで待機する。 ステップ S 7において、 1フレーズ分入力されたと判定された場合、 端末 B のシステム制御部 9 7は、 ステップ S 8に進み、 特徴抽出部 1 1 2に、 脈拍情報、 体動情報のサンプリング処理を終了させる。
なお、 脈拍情報、 体動情報のサンプリング処理は、 端末 Aの特徴抽出部 1 1 2において行い、 サンプリングした結果を端末 Bに送信してもよい。
そして、 ステップ S 9に進み、 端末 Bのシステム制御部 9 7は、 意味抽出部 1 1 3に、 感情情報 Eを抽出させる。 使用者 aが 「ちょっと面白い」 と話した場合、 「面白い」 という語句に対応 する感情 ·状態は興味であり、 「ちょっと」 という語句に対応する強度は弱であ ると認識され、 感情情報 Eとして、 「弱い興味」 が抽出される。
ステップ S 1 0において、 端末 Bのシステム制御部 9 7は、 特徴抽出部 1 1 2に使用者 a の脈拍情報に基づいて、 特徴べクトル Vcl の生成処理を実行させ、 ステップ 1 1に進み、 個人を特定する情報 PID、 感情情報 Eに対応する脈拍情報 を蓄積部 9 5から読み出す。 この場合、 使用者 aの弱い興味に対応する脈拍情 報の特徴ベクトルが読み出される。 そして、 ステップ S 1 2に進み、 端末 Bの システム制御部 9 7は、 学習部 9 4に、 読み出された特徴べク トルに新たに生成 された特徴べク トル Vc 1を加えて、 ベタ トルの分布 fvcl、 分布の中心べクトル V jt U 標準偏差ベク トル ν σ ΐを再計算させ、 ステップ S 1 3において、 再計算 した結果を蓄積部 9 5に記憶する。 ·
ステップ S 1 4において、 端末 Βのシステム制御部 9 7は、 特徴抽出部 1 1 2に使用者 a の体動情報に基づいて、 特徴べクトル Vc 2の生成処理を実行させ、 ステップ S 1 5に進み、 個人を特定する情報 PID、 感情情報 Eに対応する体動情 報を蓄積部 9 5から読み出す。 この場合、 使用者 aの弱い興味に対応する体動 情報の特徴ベク トルが読み出される。 そして、 ステップ S 1 6に進み、 端末 B のシステム制御部 9 7は、 学習部 9 4に、 読み出された特徴べク トルに新たに生 成された特徴べクトル Vc2を加えて、 ベタ トルの分布 fvc2、 分布の中心べク ト ル V i 2、 標準偏差ベク トル V (J 2を再計算させ、 ステップ S 1 7において、 再計 算した結果を蓄積部 9 5に記憶する。
次に図 1 4と図 1 5を参照して、 脈拍情報の特徴べクトル Vc lの生成処理に ついて説明する。 この処理は、 端末 Bの特徴抽出部 1 1 2で行われる。 ステツ プ S 3 1において、 端末 Bの特徴抽出部 1 1 2は、 サンプリングした脈拍情報 を読み出し、 ステップ S 3 2において、 後述する極性判定処理を行い、 ステップ S 3 3に進み、 後述する TV出力処理を行い、 ステップ S 3 4において、 後述す る Vmin, Vmax判定処理を行う。 ここで、 図 1 6乃至図 18を参照して、 極性判定処理、 TV出力処理、 および Vmin, Vmax判定処理について説明する。
最初に図 1 6を参照して、 サンプリングした波形の極性判定処理について説明 する。 ステップ S 6 1において、 端末 Bの特徴抽出部 1 1 2は、 変数 IIを 1に セットし、 ステップ S 6 2において、 Vs(n)を読み出す。 図 1 9に示される波形 21 1を周期 Tclkでサンプリングすると、 Vsl,Vs2,Vs3. . . Vsnの値が得ら れる。 ここで読み出される Vs(n)は nが 1のとき、 Vslとなり、 nが 2のとき Vs 2となるように読み出される。
ステップ S 6 3において、 端末 Bの特徴抽出部 1 1 2は、 Vs(n)があるか否か を判定し、 Vs(n)がないと判定された場合、 処理を終了する。 ステップ S 6 3に おいて、 Vs(n)があると判定された場合、 ステップ S 64において、 端末 Bの特 徴抽出部 1 12は、 Vs(n)が閾値- VthOより小さいか否かを判定し、 VthOより小 さくないと判定された場合、 ステップ S 6 5に進み、 Vs(n)が閾値 VthOより大 きいか否かを判定し、 VthOより大きくないと判定された場合、 ステップ S 66 において Sig(n)に ·1をセットする。
ステップ S 64において、 Vs(n)が閾値- VthOより小さいと判定された場合、 端末 Bの特徴抽出部 1 1 2は、 Sig(n)に- 1をセットする。 ステップ S 6 5にお いて、 Vs(n)が閾値 VthOより大きいと判定された場合、 端末 Bの特徴抽出部 1 1 2は、 Sig(n)に 1をセットする。
ステップ S 6 7において、 端末 Β·の特徴抽出部 1 1 2は、 nの値を 1だけィ ンクリメントし、 ステップ S 62に戻り、 以降の処理を繰り返し実行する。
このようにして、 波形の極性を示す変数 Sig(n)が生成される。 すなわち、 波 形の極性が +のときは、 Sig (n)の値が 1となり、 波形の極性が一のときは、 Sig(n)の値が - 1 となり、 波形の極性が +でもなく、 一でもないとき、 すなわち 極性が 0のとき Sig (n)の値は 0となる。
次に図 1 7を参照して、 Tv出力処理について説明する。 ステップ S 7 1にお いて端末 Βの特徴抽出部 1 1 2は、 変数 ηに 2をセットし、 変数 Ρに 1をセッ トする。 ステップ S 72において、 端末 Bの特徴抽出部 1 1 2は、 極性判定処 理の結果生成された Sig(n)を読み出し、 ステップ S 7 3において Sig(n)がある か否かを判定し、 Sig(n)がないと判定された場合、 処理を終了する。
ステップ S 7 3において Sig(n)があると判定された場合、 端末 Bの特徴抽出 部 1 1 2は、 ステップ S 74において Sig(n_l)を読み出し、 ステップ S 7 5に おいて、 Sig(n)と Sig(n_l)の値が等しいか否かを判定し、 Sig(n)と Sig(n - 1) の値が等しいと判定された場合、 ステップ S 7 6に進み、 Sig(n)の値が- 1か否 かを判定し、 Sig(n)の値が- 1ではないと判定された場合、 ステップ S 7 8にお いて、 Sig(n)の値が 1か否かを判定し、 Sig(n)の値が 1ではないと判定された 場合、 ステップ S 8 0に進み、 変数 cの値を 1だけインクリメントして、 ステツ プ S 9 3に進む。
ステップ S 7 6において、 Sig(n)の値が - 1であると判定された場合、 端末 B の特徴抽出部 1 1 2は、 ステップ S 7 7において変数 aの値を 1だけィンクリメ ントして、 ステップ S 9 3に進む。 ステップ S 7 8において、 Sig(n)の :が 1 であると判定された場合、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 7 9にお いて変数 bの値を 1だけィンクリメントして、 ステップ S 9 3に進む。
ステップ S 9 3において、 端末 Bの特徴抽出部 1 1 2は、 nの値を 1だけィ ンクリメントして、 ステップ S 7 2に戻り以降の処理を繰り返し実行する。 一方、 ステップ S 7 5において、 Sig(n)と Sig(n-l)の値が等しくないと判定 された場合、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 8 1に進み、 Sig(n-l) の値が一 1か否かを判定し、 Sig(n- 1)の値が一 1ではないと判定された場合、 ステップ S 8 6に進み、 Sig(n- 1)の値が 1か否かを判定し、 Sig(n_l)の値が 1 ではないと判定された場合、 ステップ S 9 0に進み、 TvO(P)の値を c*Tclkにセ ットする。 そして、 ステップ S 9 1に進み、 端末 Bの特徴抽出部 1 1 2は、 TvO(P)を出力し、 変数 cの値を 0にリセットして、 ステップ S 9 3に進む。 ステップ S 8 1において、 Sig(n- 1)の値が一 1であると判定された場合、 端 末 Bの特徴抽出部 1 1 2は、 ステップ S 8 2に進み、 Tv- (P)の値を a*Tclkにセ ットし、 ステップ S 8 3に進み、 Tv- (P)を出力し、 ステップ S 84において変 数 aの値を 0にリセットし、 ステップ S 8 5に進み、 変数 Pの値を 1だけインク リメントして、 ステップ S 9 3に進む。
ステップ S 8 6において、 Sig(n - 1)の値が 1であると判定された場合、 端末 B の特徴抽出部 1 1 2は、 ステップ S 8 7に進み、 Tv+(P)の値を b*Tclkにセット し、 ステップ S 8 8に進み、 Tv+(P)を出力し、 ステップ S 8 6において変数 b の値を 0にリセットして、 ステップ S 9 3に進む。
このようにすることで、 波形の極性が一である間は aの値がインクリメントさ れ、 波形の極性が +である間は bの値がインクリメントされ、 波形の極性が 0で ある間は cの :がインクリメントされる。 そして、 波形の極性が変化したとき、 a , b, または cにサンプリング周期 Tclkが乗じられるので、 図 2 0に示され るように、 波形の出力が正の値となる時間 Tv+(1), Τν+(2) 、 波形の出力が閾 値 +VthOと -VthOの間の値となる時間 TvO(l) , Tv0(2), Τν0(3)、 および波形の 出力が負の値となる時間 Tv- (1), Tv- (2)が得られる。
次に図 1 8を参照して、 Vmin, Vmax判定処理について説明する。 最初に、 ステップ S 1 1 1において、 端末 Bの特徴抽出部 1 1 2は、 変数 nに 2をセッ トし、 変数 Pに 1をセットする。 そして、 ステップ S 1 1 2に進み、 Vs(n)を読 み出し、 ステップ S 1 1 3において、 Vs(n)があるか否かを判定し、 Vs(n)がな いと判定された場合、 処理を終了する。 ステップ S I 1 3において Vs(n)がある と判定された場合、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 1 1 4に進み、 Vs(n - 1)を読み出し、 ステップ S 1 1 5において、 厶 Vs(n - 1)に Vs(n) - Vs(n - 1) の値をセットし、 ステップ S 1 1 6に進み、 厶 Vs(n- 1)の値を記憶する。
ステップ S 1 1 7において、 端末 Bの特徴抽出部 1 1 2は、 AVs(n- 1)の値が 0より小さいか否かを判定し、 0より小さいと判定された場合、 ステップ S 1 1 8で、 厶 VSig(n)に- 1をセットし、 ステップ S 1 1 7において、 0より小さくな いと判定された場合、 ステップ S 1 1 9で AVSig(n)に 1をセットする。 ステツ プ S 1 20に進み、 AVSig(n-l)があるか否かを判定し、 AVSig(n- 1)がないと 判定された場合、 ステップ S 1 2 7に進み nの値を 1だけインクリメントしてス テツプ S 1 1 2にもどる。
ステップ S 1 20において、 AVSig(n - 1)があると判定された場合、 ステップ S 1 2 1に進み、 端末 Bの特徴抽出部 1 1 2は、 AVSig(n- 1)を読み出す。 ステ ップ S 1 2 2において、 AVSig(n)の値と AVSig(n- 1)の値が等しいか否かを判 定し、 等しくないと判定された場合、 ステップ S 1 2 3に進み、 Vs(n)の値が VthOより小さいか否かを判定し、 VthOより小さくないと判定された場合、 ステ ップ S 1 2 5,に進み、 Vmax(P)に Vs(n- 1)をセットして、 Vraax(P)を出力し、 P の値を 1だけィンクリメントして、 ステップ S 1 2 7へ進む。
ステップ S 1 2 2において、 AVSig(n)の値と AVSig(n-l)の値が等しいと判 定された場合、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 1 2 7へ進む。
ステップ S 1 2 3において、 Vs(n)の値が VthO より小さいと判定された場合、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 1 24に進み、 Vmin(P)に Vs(n-l)を セットして、 Vmin(P)を出力し、 ステップ S 1 2 7に進む。
このようにすることで、 図 20に示されるように Tv+(1), Τν+(2)における波 形 2 2 1のピーク値 Vmax(l), Vmax(2)が得られ、 時間 Tv- (1), TV- (2)におけ る波形 2 2 1のピーク値 Vmin(l), Vmin (2)が得られる。
図 1 5にもどって、 ステップ S 3 5において、 端末 B の特徴抽出部 1 1 2は、 変数 Pの値を 1にセットし、 ステップ S 3 6において、 Tv+(P)または Tv- (0)が あるか否かを判定し、 Tv+(P)または Tv- (0)があると判定された場合、 ステップ S 3 7に進み、 Tppg+(P)に値 Tv+(P)をセットし、 ステップ S 3 8において、 Tppg- (Ρ)に値 Tv- (Ρ)をセッ卜する。 ステップ S 3 9において、 端末 Bの特徴抽 出部 1 1 2は、 Tppg+(P)と Tppg-(P)を足して Tppgi(P)とする。 そして、 ステ ップ S 40に進み、 変数 Pの値を 1だけインクリメントし、 ステップ S 3 6に 戻り、 以降の処理を繰り返し実行する。
ステップ S 3 3の Tv出力処理の結果、 Tv+(1)、 Tv+(2)、 Tv- (1)、 Tv- (2)が 得られたとすると、 変数 Pの値が 3になったとき、 ステップ S 3 6において、 Tv+(P)または Tv -(P)がないと判定され、 端末 Bの特徴抽出部 1 1 2は、 ステツ プ S 4 1に進み、 Tppg+, Tppg-, Tppgiの平均値、 Tppg+m, Tppg-m, Tppgimを 計算する。 この場合、 Tppg+m, Tppg-m, Tppgimはそれぞれ次のように計算さ れる。 Tppg+m= (Tppg+(l)+Tppg+(2)) /2 Tppg~m= (Tppg- (1)+Tppg- (2) ) /2 Tppgim= (Tppgi (1) +Tppgi (2) ) /2
次にステップ S 4 2に進み、 端末 Bの特徴抽出部 1 1 2は、 変数 Pの値を 1 にセットし、 ステップ S 4 3において、 Vmax(P)または Vmin(P)があるか否かを 判定し、 Vmax(P)または Vrain(P)があると判定された場合、 ステップ S 44に進 み、 Appg+(P)に値 Vmax(P)をセットし、 ステップ S 4 5において、 Appg- (P)に 値 Vmin(P)をセットする。 そして、 ステップ S 4 6に進み、 変数 Pの値を 1だけ インクリメントし、 ステップ S 4 3に戻り、 以降の処理を繰り返し実行する。 ステップ S 3 4の Vmin, Vmax判定処理の結果、 Vmax(l)、 Vraax(2) N Vrain(l) Vtnin(2)が得られたとすると、 変数 Pの値が 3になったとき、 ステップ S 4 3に おいて、 Vmax(P)または Vtnin(P)がないと判定され、 端末 Bの特徴抽出部 1 1 2 は、 ステップ S 4 7に進み、 Appg+, Appg-の平均値、 Appg+m, Appg- mを計算す る。 この場合、 Appg+m, Appg- mはそれぞれ次のように計算される。
Appg+ra= (Appg+(l)+Appg+(2)) /2 Appg-ra= (Appg- (l) +Appg- (2) ) / 2 そして、 ステップ S 4 8に進み、 端末 Bの特徴抽出部 1 1 2は、 特徴量べク 卜ノレ Vcl (Tppg+m, Tppg-m, Tppgim, Appg+ra, Appg-m) を生成する。
図 2 5に脈拍の波形 24 1を示す。 Tppg+は波形 24 1の出力が正の値となる 時間を示し、 Tppg-は波形 24 1の出力が負の値となる時間を示し、 Tppgiは脈 拍の 1拍分の時間を示し、 Appg+は、 TpPg+における脈拍波形のピーク値であり Appg-は、 Tppg-における脈拍波形のピーク値となる。
このようにして、 使用者 aの弱い興味に対応する脈拍情報の特徴べク トル Vc 1が生成される。
次に図 2 1を参照して、 使用者 aの体動情報の特徴べク トル Vc2の生成処理 について説明する。 ステップ S 1 4 1において、 端末 Bの特徴抽出部 1 1 2は、 サンプリングし た体動情報を読み出す。 そして、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 1 4 2において、 図 1 6を参照して説明した極性判定処理を行い、 ステップ S 1 4 3において、 図 1 7を参照して説明した Tv出力処理を行い、 ステップ S 1 44 において Vmax,Vmin判定処理を行う。 そして、 ステップ S 1 4 5に進み、 端末 B の特徴抽出部 1 1 2は、 変数 P に 1をセットする。 ステップ S 1 4 6において、 端末 Bの特徴抽出部 1 1 2は、 Vmax, Vmin判定処理において記憶された Δνの 値 (図 1 8のステップ S 1 1 6) の値を読み出す。
体動情報の波形は、 図 2 6に示される波形 2 6 1のようになるので、 Ρの値が 1のときは、 厶 VI、 Ρの値が 2のときは AV2となるように厶 V(P)が読み出さ れる。 そして、 ステップ S 1 4 7において、 端末 Βの特徴抽出部 1 1 2は、 △ V(P)があるか否かを判定し、 Δν(ρ)があると判定された場合、 ステップ S 1 4 8に進み、 Vel(P)に I厶 V(P) | /Tclkの値をセットし、 ステップ S 1 4 9に おいて ∑ AVに ∑ Δν+ I Δν(Ρ) Iの値をセットし、 ステップ S 1 5 0において、 Pの値を 1だけインクリメントしてステップ S 1 46に戻り、 以降の処理を繰り 返し実行する。
この場合、 AV(P)は、 時間 Tclkの間に使用者 aが移動した距離を示すので、 Vel(P)は使用者 aが移動する速度を示し、 ∑ AVは、 使用者 aが移動した距離の 合計を示す。
ステップ S 1 4 7において、 AV(P)がないと判定された場合、 端末 Bの特徴 抽出部 1 1 2は、 ステップ S 1 5 1において Dに ∑ AVの値をセットし、 速度 Velの平均値 Velmを計算し、 ステップ S 1 5 2に進み、 特徴ベクトル Vc2
(Velm, D) を生成する。
このようにして、 使用者 aの弱い興味に対応する体動情報の特徴べク トル Vc 2が生成される。 ·
ここまで、 端末 B力 端末 Aから送信された使用者 aの脈拍情報と体動情報 から特徴量べク トル Vcl、 Vc2を生成し、 蓄積する処理について説明したが、 同様に端末 Bは、 使用者 bについての脈拍情報と体動情報から特徴量べクトル を生成し、 蓄積する。 その結果、 端末 Bの蓄積部 9 5には、 図 2 7にしめされ るような、 脈拍情報に関する学習結果 2 8 1と体動情報に関する学習結果 2 8 2 がそれぞれ、 使用者 aと使用者 bに分けて蓄積される。
また、 端末 Aも同様にして、 脈拍情報に関する学習結果と体動情報に関する 学習結果をそれぞれ、 使用者 aと使用者 bに分けて蓄積することができる。
上述した生体情報蓄積処理を繰り返し行い、 生体情報が充分蓄積された後は、 生体情報をもとに、 使用者の感情、 状態、 およびその強度を特定することができ る。
次に図 2 8を参照して、 端末 B による感情状態の特定処理について説明する。 ステップ S 1 7 1において、 端末 Bのシステム制御部 9 7は、 端末 A との通 信開始時に、 通信相手である端末 Aの使用者 a を特定する情報 PID を取得する。 ステップ S 1 7 2において、 端末 Bのシステム制御部 9 7は、 情報弁別部 1 1 1に、 端末 Aから送信されてきた使用者 aの音声情報が入力されたか否かを判 定させ、 入力されたと判定されるまで待機する。 音声情報が入力されたと判定さ れた場合、 ステップ S 1 7 3に進み、 端末 Bのシステム制御部 9 7は、 特徴抽 出部 1 1 2に、 端末 Aから送信されてきた使用者 aの脈拍情報、 体動情報のサ ンプリング処理を開始させる。 そして、 ステップ S 1 7 4に進み、 端末 Bのシ ステム制御部 9 7は、 意味抽出部 1 1 3に音声の認識を行わせる。
ステップ S 1 7 5において、 端末 Bのシステム制御部 9 7は、 使用者 aの音 声が 1フレーズ分入力されたか否かを判定し、 1フレーズ分入力されたと判定さ れるまで待機する。
ステップ S 1 7 5において、 1フレーズ分入力されたと判定された場合、 端末 Bのシステム制御部 9 7は、 ステップ S 1 7 6に進み、 特徴抽出部 1 1 2に脈拍 情報、 体動情報のサンプリング処理を終了させる。
なお、 脈拍情報、 体動情報のサンプリング処理は、 端末 Aの特徴抽出部 1 1 2において行い、 サンプリングした結果を端末 Bに送信してもよい。 そして、 ステップ S I 7 7に進み、 端末 Bのシステム制御部 9 7は、 特徴抽 出部 1 1 2に、 使用者 aの脈拍情報に基づいて、 特徴べク トル Vc l生成処理を 実行させ、 ステップ 1 7 8において、 使用者 aの体動情報に基づいて、 特徴べ タ トル Vc 2生成処理を実行させ、 ステップ S 1 7 9に進み、 学習部 9 4に、 Vc l の感情、 状態、 およびその強度の特定処理を実行させ、 ステップ S 1 8 0におい て Vc2の感情、 状態、 およびその強度の特定処理を実行させ、 ステップ S 1 8 1に進み、 特定結果の出力と再計算処理を実行させる。
次に、 図 2 9と図 3 0を参照して、 脈拍情報の特徴ベク トル Vc lの生成処理 について説明する。 この処理は、 端末 Bの特徴抽出部 1 1 2で行われる。 ステ ップ S 2 0 1において、 端末 Bの特徴抽出部 1 1 2は、 サンプリングした脈拍 情報を読み出し、 ステップ S 2 0 2において、 図 1 6を参照して説明した極性判 定処理を行い、 ステップ S 2 0 3に進み、 図 1 7を参照して説明した TV出力処 理を行い、 ステップ S 2 0 4において、 図 1 8を参照して説明した Vmin, Vmax 判定処理を行う。
図 3 0のステップ S 2 0 5において、 端末 Bの特徴抽出部 1 1 2は、 変数 P の値を 1にセットし、 ステップ S 2 0 6において、 Tv+ (P)または Tv- (0)がある か否かを判定し、 Τν+ (Ρ)または Tv- (0)があると判定された場合、 ステップ S 2 0 7に進み、 Tppg+ (P)に値 Tv+ (P)をセットし、 ステップ S 2 0 8において、 Tppg- (Ρ)に値 Tv- (Ρ)をセットする。 ステップ S 2 0 9において、 端末 Bの特徴 抽出部 1 1 2は、 Tppg+ (P)と Tppg -(P)を足して Tppgi (P)とする。 そして、 ス テツプ S 2 1 0に進み、 変数 Pの値を 1だけィンクリメントし、 ステップ S 2 0 6に戻り、 以降の処理を繰り返し実行する。
ステップ S 2 0 6において、 Tv+ (P)または Tv- (P)がないと判定された場合、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 2 1 1に進み、 TPPg+, Tppg-, Tppgi の平均値、 Tppg+m, Tppg-m, Tppgitnを計算する。
次にステップ S 2 1 2に進み、 端末 Bの特徴抽出部 1 1 2は、 変数 Pの値を 1にセットし、 ステップ S 2 1 3において、 Vmax (P)または Vrain (P)があるか否 かを判定し、 Vmax(P)または Vmin(P)があると判定された場合、 ステップ S 21 4に進み、 Appg+(P)に値 Vmax(P)をセットし、 ステップ S 21 5において、 Appg- (P)に値 Vmin(P)をセットする。 そして、 ステップ S 2 1 6に進み、 変数 P の値を 1だけィンクリメントし、 ステップ S 2 1 3に戻り、 以降の処理を繰り返 し実行する。
ステップ S 21 3において、 Vtnax(P)または Vmin(P)がないと判定され、 端末 Bの特徴抽出部 1 1 2は、 ステップ S 21 7に進み、 Appg+, Appg-の平均値、 Appg+m, Appg - m 計算する。
そして、 ステップ S 2 1 8に進み、 端末 Bの特徴抽出部 1 1 2は、 特徴量べ ク 卜ノレ Vcl (Tppg+m, Tppg-m, Tppgim, Appg+m, Appg-m) を生成する。
このようにして、 使用者 aの脈拍情報の特徴べク トル Vclが生成される。
次に図 3 1を参照して、 使用者 aの体動情報の特徴べク トル Vc2の生成処理 について説明する。
ステップ S 2 3 1において、 端末 Bの特徴抽出部 1 1 2は、 サンプリングし た体動情報を読み出す。 そして、 端末 Bの特徴抽出部 23 2は、 ステップ S 2 3 2において、 図 1 6を参照して説明した極性判定処理を行い、 ステップ S 23 3において、 図 1 7を参照して説明した Tv出力処理を行い、 ステップ S 234 において図 1 8を参照して説明した Vmax,Vmin判定処理を行う。 そして、 ステ ップ S 23 5に進み、 端末 B の特徴抽出部 1 1 2は、 変数 P に 1をセットする。 ステップ S 236において、 端末 Bの特徴抽出部 1 1 2は、 Vmax, Vmin判定処理 において記憶された厶 Vの値 (図 1 8のステップ S 1 1 6) の値を読み出す。 ステップ S 23 7において、 端末 Bの特徴抽出部 1 1 2は、 厶 V(P)があるか 否かを判定し、 Δν(Ρ)があると判定された場合、 ステップ S 238に進み、 Vel(P)に 1厶 V(P) I /Tclkの値をセットし、 ステップ S 23 9において ∑ に ∑ AV+ I厶 V(P) Iの値をセットし、 ステップ S 240において、 Pの値を 1 だけィンクリメントしてステップ S 236に戻り、 以降の処理を繰り返し実行す る。 ステップ S 2 3 7において、 AV(P)がないと判定された場合、 端末 Βの特徴 抽出部 1 1 2は、 ステップ S 24 1において Dに ∑ AVのイ直をセットし、 Velの 平均値 Velmを計算し、 ステップ S 2 5 2に進み、 特徴ベク トル Vc2 (Velra, D) を生成する。
このようにして、 使用 aの体動情報の特徴ベクトル Vc 2が生成される。
次に図 3 3を参照して、 Vclの感情、 状態、 およびその強度の特定処理につい て説明する。 この処理は端末 Bの学習部 94により実行される。
ステップ S 2 6 1において、 この処理は端末 Bの学習部 9 4は、 蓄積部 9 5 に蓄積されている使用者 aに対応する脈拍情報の特徴量べク トルの分布 iVcl、 分布の中心べク トル v i、 分布の標準偏差べクトノレ νσΐを読み出す。
上述したように感情 ·状態は、 表 1に示す通り 1 2通りに分別され、 さらに、 各感情 ·状態は、 強、 中、 弱の 3種類の強度に分けられ、 感情情報は 3 6通りあ る。 従って、 fvcl,Vjt l,VCTl も感情情報に対応してそれぞれ 3 6通り存在する。 ステップ S 2 6 2において、 端末 B の学習部 9 4は、 変数 Q に 1をセットし、 ステップ S 2 6 3に進み、 ベクトル VjUl(Q)とステップ S 1 7 7 (図 2 8) で生 成した特徴量べク トル Vc lの内積値を算出し、 内積値に対応させて V 1(Q)を 記憶する。 そして、 ステップ S 2 6 4に進み、 Q の値^ 1だけインクリメントし、 ステップ 2 6 5において、 全ての感情情報について計算したか否か、 すなわち、 3 6種類の中心べク トル VjU 1について、 内積値を計算したか否かを判定し、 全 ての感情情報について計算していないと判定された場合、 ステップ S 2 6 3に戻 り、 以降の処理を繰り返し実行する。
全ての感情情報に対応する 3 6種類の中心べク トル V 1について内積値の計 算が終わると、 端末 Bの学習部 94の中にある図示せぬ記憶部には、 図 3 4の ようなデータが記憶されている。 ステップ S 26 6において、 端末 Bの学習部 9 4は、 内積値の大きい順にデータをソートする。
ステップ S 2 6 7において、 端末 B の学習部 94は、 変数 Rに 1をセットし、 ステップ S 2 6 8において、 全ての感情情報に関してデータが読み出されたか否 かを判定し、 全ての感情情報に関してデータが読み出されていないと判定された 場合、 ステップ S 26 9に進み、 ソートしたデータを読み出す。 表 2の例では、 内積値が最も大きい 「安定 .中」 に対応する特徴量ベク トルの中心ベク トル νμ 1-29が最初に読み出される。
ステップ S 2 70において、 端末 Β の学習部 94は、 変数 mに 1をセットし、 ステップ S 27 1に進み、 Vjt/l(R)tn_V l(R)m≤Vclm^VjUl(R)m + V l(R)mの 条件を満たしているか否かを判定する。 ここで、 V n(R)mは、 ベク トル
V〃1(R)の m番目の成分を表し、 VCTl(R)m, Vclmもそれぞれ同様にベク トル νσΐ, Vclの m番目の成分を表す。 脈拍情報の特徴量ベク トルは上述したように Tppg+m, Tppg— m, Tppgim, Appg+ra, Appg— mの 5個の成分【こより構成さ;τてレヽる。 mの値が 1のとき、 V l(R), V σ 1 (R) , Vclの各ベク トルの Tppg+m成分が抽出 され、 処理が行われる。
ステップ S 271において、 V l(R)m— VCTl(R)ni≤Vclm≤V// l(R)m+ νσΐθ ηιの条件を満たしていないと判定された場合、 端末 Βの学習部 94は、 ステップ S 276に進み、 Rの を 1だけインクリメントして、 ステップ S 26 8に戻り、 以降の処理を繰り返し実行する。 ステップ S 27 1において、
V l(I m—Vσl(R)m≤Vcltn≤VWl(R)m+Vσl(R)mの条件を満たしていると判定 された場合、 端末 Βの学習部 94は、 ステップ S 272に進み、 mの値を 1だ けインクリメントして、 ステップ S 273に進み、 mの値が 6と等しいか否かを 判定し、 mの値が 6と等しくないと判定された場合、 ステップ S 2 71に戻り、 以降の処理を繰り返し実行する。
ステップ S 273において、 mの値が 6と等しいと判定された場合、 すなわち、 V 1 (R) , V 1 (R) , Vclの各ベク トルを構成する 5個の成分について、 全て VjW l(R)m—
Figure imgf000031_0001
l(R)m+V l(R)mの条件を満たしていると判定 された場合、 端末 Bの学習部 94は、 ステップ S 274に進み、 Vclは Rに対応 する感情情報 E1に属しているものと特定する。 Rが 1のとき、 Rに対応する感 情情報 E1は 「安定■ 中」 となる。 ステップ S 2 6 8において、 全ての感情情報に関してデータが読み出されたと 判定された場合、 端末 Bの学習部 9 4は、 Vc lの感情、 状態、 およびその強度は 特定不能として処理を終了する。
図 3 5は、 使用者 aの各感情情報に対応する脈拍情報の特徴量べクトルを示 した図である。 この図は、 Tppg+tn軸、 Tppg - m軸、 Tppgim軸、 Appg+m軸、
Appg - m軸からなる 5次元空間として示されている。 図 2 8のステップ S 1 7 7 において生成された特徴量ベク トル 3 8 1 (Vc l) は、 「安定 '中」 に対応する 特徴量ベク トルの分布 3 8 3の中心ベク トル 3 8 2 (V 1-29) と近接しており、 上述した Vc lの感情、 状態、 およびその強度特定処理の結果、 「安定' 中」 を 示す特徴量ベク トルであると特定される。
次に図 3 6を参照して、 Vc2の感情、 状態、 およびその強度の特定処理につい て説明する。 この処理は端末 Bの学習部 9 4により実行される。
ステップ S 2 9 1において、 端末 Bの学習部 9 4は、 蓄積部 9 5に蓄積され ている使用者 aに対応する体動情報の特徴量べク トルの分布 fvc2、 分布の中心 ベタ トル V jt/ 2、 分布の標準偏差べク トル ν σ 2を読み出す。
上述したように感情 ·状態は、 表 1に示す通り 1 2通りに分別され、 さらに、 各感情 ·状態は、 強、 中、 弱の 3種類の強度に分けられ、 感情情報は 3 6通りあ る。 従って、 fvc2, V jU 2, V CT 2 も感情情報に対応してそれぞれ 3 6通り存在する。 ステップ S 2 9 2において、 端末 B の学習部 9 4は、 変数 Q に 1をセットし、 ステップ S 2 9 3に進み、 ベク トル V /i 2 (Q)とステップ S 1 7 8 (図 2 8 ) で生 成した特徴量べク トル Vc2の内積値を算出し、 内積値に対応させて V 2 (Q)を記 憶する。 そして、 ステップ S 2 9 4に進み、 Qの値を 1だけインクリメントし、 ステップ 2 9 5において、 全ての感情情報について計算したか否か、 すなわち、 3 6種類の中心ベク トル V / 2について、 内積値を計算したか否かを判定し、 全 ての感情情報について計算していないと判定された場合、 ステップ S 2 9 3に戻 り、 以降の処理を繰り返し実行する。 全ての感情情報に対応する 36種類の中心べク トル V 2について内積値の計 算が終わると、 端末 Bの学習部 94の中にある図示せぬ記憶部には、 図 37の ようなデータが記憶されている。 ステップ S 296において、 端末 Bの学習部 94は、 内積値の大きい順にデータをソートする。
ステップ S 2 9 7において、 端末 B の学習部 94は、 変数 Rに 1をセットし、 S 29 8において、 全ての感情情報に関してデータが読み出されたか否かを判定 し、 全ての感情情報に関してデータが読み出されていないと判定された場合、 ス テツプ S 29 9に進み、 ソートしたデータを読み出す。 図 37の例では、 内積値 が最も大きい 「安定 '中」 に対応する特徴量べク トルの中心べクトル Vj«2 - 29 が最初に読み出される。
ステップ S 2 70において、 端末 B の学習部 94は、 変数 に 1をセットし、 ステップ S 2 7 1に進み、 V 2(R)m—V 2(R)m≤Vc2m≤V 2(R)ra + V 2(R)mの 条件を満たしているか否かを判定する。 ここで、 Vj«2(R)mは、 ベクトル
V 2 (R)の m番目の成分を表し、 VCT2(R)m, Vc2mもそれぞれ同様にベク トル νσ2, Vc2の; m番目の成分を表す。 体動情報の特徴量ベク トルは上述したように Velm,Dの 2個の成分により構成されている。 mの値が 1のとき、 V 2(R), Va2(R), Vc2の各ベクトルの Velm成分が抽出され、 処理が行われる。
ステップ S 301において、 V 2(R)m—VCT2(R)m≤Vc2tn≤V 2(R)m+
Vび 2 (R) tnの条件を満たしていないと判定された場合、 端末 Bの学習部 94は、 ステップ S 30 6に進み、 Rの値を 1だけインクリメントしてステップ S 29 8 に戻り、 以降の処理を繰り返し実行する。 ステップ S 30 1において、
μ2 (R)m-Va2(R) m≤Vc2m≤V β 2 (R) m+ V σ2 (R) mの条件を満たしていると判定 された場合、 端末 Bの学習部 94は、 ステップ S 302に進み、 mの値を 1だ けインクリメントして、 ステップ S 303に進み、 mの値が 3と等しいか否かを 判定し、 mの値が 3と等しくないと判定された場合、 ステップ S 30 1に戻り、 以降の処理を繰り返し実行する。 ステップ S 3 0 3において、 mの値が 3と等しいと判定された場合、 すなわち、 V 2(R), Va2(R), Vc2の各ベクトルを構成する 2個の成分について、 全て ¥ 2 )111ー¥び2(1 111≤¥02111≤¥ 2(]¾ 111+¥び2(1 111の条件を満たしてぃると判定 された場合、 端末 Bの学習部 9 4は、 ステップ S 2 7 4に進み、 Vc2は Rに対応 する感情情報 E2に属しているものと特定する。 Rが 1のとき、 Rに対応する感 情情報 E2は 「安定 ·中」 となる。
ステップ S 2 9 8において、 全ての感情情報に関してデータが読み出されたと 判定された場合、 端末 Bの学習部 9 4は、 Vc2の感情、 状態、 およびその強度は 特定不能として処理を終了する。
図 3 8は、 使用者 aの各感情情報に対応する体動情報の特徴量べクトルを示 した図である。 この図は、 Velm軸、 D軸からなる 2次元空間として示されてい る。 図 2 8のステップ S 1 7 8において生成された特徴量べク トル 40 1
(Vc2) は、 「安定 ·中」 に対応する特徴量べク トルの分布 4 0 3の中心べクト ル 40 2 (V 2 - 29) と近接しており、 上述した Vc2の感情、 状態、 およびその 強度特定処理の結果、 「安定 '中」 を示す特徴量ベク トルであると特定される。 次に、 図 3 9を参照して、 特定結果出力再計算処理について説明する。 この処 理は端末 Bの学習部 9 4により実行される。 ステップ S 3 2 1において端末 B の学習部 9 4は、 Vclにより特定された感情情報 Elと Vc2により特定された感 情情報 E2が等しいか否かを特定し、 E1と E2が等しくないと判定された場合、 ステップ S 3 2 2に進み、 ステップ S 1 7 8 (図 2 8) において生成された体動 情報の特徴量べクトル Vc2を Elに属するものとして処理結果を訂正する。 E1は、 脈拍情報をもとに生成された特徴量べク トル Vclにより特定された、 感情情報 であり、 E2は体動情報により特定された感情情報であり、 E1 と E2が異なる場 合もあり得る。 この場合、 ベクトルを構成する成分が多い方、 すなわち次元数が 大きい方のベク トルによる特定結果が選択される。 すなわち、 5次元ベク トルで ある Vclにより特定された感情情報 Elが選択され、 2次元べクトルである Vc2 は、 感情情報 E1を示すものとして処理結果が訂正される。 2003/012758
33
ステップ S 3 2 3において、 端末 Bの学習部 9 4は、 特定結果を出力制御部 1 1 4に出力し、 ステップ S 3 2 4において、 使用者 aの感情情報 E1に対応す る脈拍情報の特徴量べク トルの分布 fvcl、 分布の中心べク トル V l、 分布の標 準偏差べク トル νσΐ と、 使用者 aの感情情報 E1対応する体動情報の特徴量べ クトルの分布 fvc2、 分布の中心べクトル VjU2、 分布の標準偏差べク トル νσ2 を再計算し、 蓄積する。 すなわち、 ステップ S 1 7 7とステップ S 1 7 8 (図 2 8) で生成された特徴量べク トル Vcl と Vc2は、 それぞれ蓄積部に蓄積されて いる使用者 aの 「安定 '中」 を示す脈拍情報の特徴量べク トル、 体動情報の特 徴量ベクトルに加えられ、 あらたに、 fvcl、 V μ ΐ、 および νσΐ、 並びに fvc2、 V i2、 および νσ2が計算され、 蓄積部 9 5に蓄積される。
このようにして、 脈拍情報と体動情報から感情、 状態、 およびその強度が特定 される。 また、 感情、 状態、 およびその強度が特定された特徴量べクトルの情報 力 あらたに蓄積される。
ここまで、 端末 Βが、 端末 Αから送信された使用者 aの脈拍情報と体動情報 から特徴量べク トノレ Vc l、 Vc2を生成し、 感情、 状態、 およびその強度を特定 する処理について説明したが、 同様に端末 Bは、 使用者 bについての脈拍情報 と体動情報から特徴量べク トルを生成し、 感情、 状態、 およびその強度を特定す ることもできる。
また、 端末 Aも同様にして、 使用者 aと使用者 bの感情、 状態、 およびその 強度を特定することができる。
次に、 図 4◦と図 4 1を参照して、 情報出力処理について説明する。 ステップ S 34 1において、 システム制御部 9 7は、 出力情報が選択されたか否かを判定 し、 選択されたと判定されるまで待 する。 出力情報の選択は、 例えば、 端末の ディスプレイ上に表示されたメニューを使用者が選択することによって行われる。 使用者が選択できるメニューは、 「特定結果」 、 「特徴量に基づく情報」 、 「波 形情報」 、 および 「蓄積情報」 の 4種類がある。 ステップ S 3 4 1において、 出力情報が選択されたと判定された場合、 システ ム制御部 9 7は、 ステップ S 3 4 2に進み、 特定結果が選択されたか否かを判定 し、 特定結果が選択された判定された場合、 ステップ S 3 4 3において、 特定結 果に対応する 2ビッ トの選択情報 0 0を出力制御部 1 1 4に送信する。
ステップ S 3 4 4において、 出力制御部 1 4 4は、 感情、 状態、 およびその強 度の特定結果を出力する。 例えば、 端末のディスプレイ上に 「中の安定を示して いるようです。 」 という文字が出力される。
ステップ S 3 4 2において、 特定結果が選択されていないと判定された場合、 システム制御部 9 7は、 ステップ S 3 4 5に進み、 特徴量に基づく情報が選択さ れたか否かを判定し、 特徴量に基づく情報が選択されたと判定された場合、 ステ ップ S 3 4 6に進み、 特徴量に基づく情報に対応する 2ビッ トの選択情報 0 1を 出力制御部 1 1 4に送信する。
ステップ S 3 4 7において、 出力制御部 1 1 4は、 特徴量 (Tppg+, Tppg- , Tppgi, Appg+, Appg- ) を特徴抽出部 1 1 2から取得し、 ステップ S 3 4 8に進 み、 光呈示部駆動信号を生成する。 すなわち、 出力の振幅を Appg+とし、 出力 ON時間を Tppg+とし、 出力 OFF時間を Tppg -として、 図 4 2に示されるような 正弦波信号を生成する。 そして、 ステップ S 3 4 9に進み、 出力制御部 1 1 4は、 光提示部 1 9 2を駆動させる。
ステップ S 3 5 0において、 出力制御部 1 1 4は、 特徴量 (Vel, Δ ν) を特 徴抽出部 1 1 2から取得し、 ステップ S 3 5 1に進み、 移動オブジェクトの移動 速度を Vel として、 移動距離 A Vとした駆動信号を生成する。 そして、 ステツ プ S 3 5 2に進み、 移動オブジェクト 1 5 2を駆動させる。
ステップ S 3 4 5において、 特徴量に基づく情報が選択されていないと判定さ れた場合、 システム制御部 9 7は、 ステップ S 3 5 3において、 波形情報が選択 されたか否かを判定し、 波形情報が選択されたと判定された場合、 波形情報に対 応する 2ビッ トの選択情報 1 0を出力制御部 1 1 4に送信する。 ステップ S 3 5 6において、 出力制御部 1 1 4は、 特徴抽出部 1 1 2からサンプリングされた脈 拍情報を取得し、 波形信号を生成し、 ステップ S 3 5 7において光呈示部 1 9 2 を駆動させる。
ステップ S 3 5 8において、 出力制御部 1 1 4は、 特徴抽出部 1 1 2からサン プリングされた脈拍情報を取得し、 波形信号を生成し、 ステップ S 3 5 9におい て移動オブジェクト 1 5 2を駆動させる。
ステップ S 3 5 3において、 波形情報が選択されていないと判定された場合、 システム制御部 9 7は、 ステップ S 3 6 0に進み、 蓄積情報が選択されたか否か を判定し、 蓄積情報が選択されたと判定された場合、 ステップ S 3 6 1に進み、 蓄積情報に対応する 2ビットの選択情報 0 1を出力制御部 1 1 4に送信する。 蓄積情報が選択された場合、 端末のディスプレイ上に更にサブメニューが表示 され、 使用者は、 どの蓄積情報を出力するかを選択することができる。 すなわち、 脈拍情報、 体動情報などの情報の種類 inf lと inf2、 個人を特定する情報 PID、 感情情報 Eが選択される。 例えば、 inf lとして脈拍情報、 inf2として体動情報、
PIDとして個人 a、 Eとして 「強い好」 などが選択される。
ステップ S 3 6 2において、 システム制御部 9 7は、 情報の種類 inf l , inf2、 個人を特定する情報 PID、 感情情報 Eが選択されたか否かを判定し、 選択された と判定されるまで待機する。
ステップ S 3 6 3において、 システム制御部 9 7は、 使用者に選択された情報 に基づいて (inf l , inf2, P ID, E) の情報を生成し、 出力制御部 1 1 4に送信 する。
ステップ S 3 6 4において出力制御部 1 1 4は、 (inf l , inf2, PID, E) に 基づいて、 蓄積部 9 5から脈拍情報の中心べクトルと体動情報の中心べク トルを 取得する。 この場合、 蓄積部に蓄積されている個人 aの 「強い好」 に対応する 脈拍情報の特徴量ベクトルの分布の中心ベクトル V j« 1 (Tppg+, Tppg- , Tppgi, Appg+, Appg-) 、 個人 aの 「強い好」 に対応する体動情報の特徴量べク トルの分布の中心べク トル (Velra, D) が取得される。 ステップ S 3 6 5において、 出力制御部 1 1 4は、 中心ベク トル Vjl 1に基づ いて、 光呈示部駆動信号を生成する。 すなわち、 出力の振幅を Appg+とし、 出力 ON時間を Tppg+とし、 出力 OFF時間を Tppg -として、 図 4 3に示されるような 正弦波 4 4 1の信号を生成し、 ステップ S 3 6 5において光呈示部 1 9 2を駆動 信号に基づいて、 3回駆動させる。
ステップ S 3 6 6において、 出力制御部 1 1 4は、 中心べク トノレ V〃2に基づ いて移動オブジェク トの移動速度を Velとして、 移動距離を Dとした駆動信号 を生成し、 ステップ S 3 6 7において移動ォブジェク ト 1 5 2を駆動させる。 ステップ S 3 6 0において、 蓄積情報が選択されていないと判定された場合、 システム制御部 9 7は、 ステップ S 3 6 8に進み、 エラー処理を実行し、 処理を 終了する。
このようにして、 使用者は、 生体情報から特定された感情、 状態、 およびその 強度を表示させ、 認識することができる。 また、 光の点滅させたり、 オブジェク トを移動させたりすることにより、 生体情報を体感することができる。
実施の形態 2
図 4 4に本発明の第 2の情報処理装置の構成例を示す。 この情報処理装置は、 パーソナルコンピュータなどに適用することができる。 この情報処理装置には、 言語情報、 キーボードの振動情報の入力を受け付ける入力部 3 0 1、 入力部 3 0 1から入力された情報を処理する処理部 3 0 3、 処理部 3 0 3から出力された特 徴情報と感情情報に基づいて、 学習、 特定を行う学習部 3 0 4、 学習部 3 0 4か ら出力された学習情報、 特定情報を蓄積する蓄積部 3 0 5、 処理部 3 0 3から出 力された出力情報に基づいて、 情報を出力する出力部 3 0 2、 通信を行う通信部 3 0 6、 および各部を制御するシステム制御部 3 0 7が設けられている。
処理部 3 0 3には、 入力部 3 0 1から入力された情報を、 言語情報、 またはキ 一ポード振動情報に分別する情報弁別部 3 2 1、 キーボード振動情報から特徴情 報を抽出する特徴抽出部 3 2 2、 言語情報から感情情報を抽出する意味抽出部 3 2 3、 および出力部 3 0 2に出力情報を出力する出力制御部 3 2 4が設けられて いる。 通信部 3 0 6には、 情報の送信を行う情報送信部 3 2 5、 情報の受信を行 う情報受信部 3 2 6が設けられている。
図 4 5に入力部 3 0 1の構成例を示す。 この例では、 キーポード 3 4 1、 使用 者がキーボードを打鍵するときの振動を検知する振動センサ 3 4 2、 振動センサ 3 4 2からの信号を増幅する電源アンプ部 3 4 3により構成されている。
図 4 6に出力部 3 0 2の構成例を示す。 この例では、 振動モータ 3 6 2、 所定 の信号に基づいて振動する振動呈示部 3 6 2、 振動呈示部を駆動する電源アンプ 部 3 6 1により構成されている。
使用者 aがもっている情報処理装置を端末 Aとし、 使用者 bがもっている情 報処理装置を端末 Bとして、 使用者 aと使用者 bがそれぞれの端末を用いて、 相互に通信を行う場合、 図 4 7に示される手順で情報の送受信が行われる。 最初 に端末 Aは、 端末 Bに接続要求を送信し、 それに対応して端末 Bは端末 Aに接 続応答を送信する。 その後、 端末 Aと端末 Bの間で、 メール、 チャットなどの 文字情報などを送受信する。
次に端末 Aは振動情報 (この例の場合、 使用者がキーボードを打鍵するとき の振動) の送受信の初期設定を行い、 端末 Bに送受信要求を送信する。 このと き、 実施の形態 1の場合と同様に、 端末 Aから図 1 1に示される送信設定情報 と受信設定情報が送信される。
端末 Aから振動情報の送信要求を受け取った端末 Bは、 振動情報送受信設定 の変更を行い、 端末 Aに応答を送信する。
そして端末 Aから端末 Bに使用者 aの振動情報が送信され、 端末 Bから端末 A に使用者 bの振動情報が送信される。 端末 A、 端末 Bにはそれぞれ振動情報が蓄 積される。
端末 Aから端末 Bに接続終了要求が送信されると、 端末 Bはそれに応答し、 通信は終了する。
このようにして、 端末 Aと端末 Bの間で通信が行われ、 振動情報が蓄積され る。 振動情報が充分に蓄積された後は、 図 4 8に示されるように情報の送受信が 行われる。 すなわち、 端末 Aと端末 Bとの間で振動情報が送受信されると、 端 末 Aと端末 Bにおいて、 使用者の感情 ·状態の特定処理が行われる。
次に図 4 9を参照して、 端末 B における振動情報蓄積処理について説明する。 最初に端末 Bのシステム制御部 3 0 7は、 ステップ S 3 8 1において、 端末 A との通信開始時に、 通信相手である端末 A の使用者 a を特定する情報 (例えば、 氏名、 ニックネームなど) PIDを取得する。 ステップ S 3 8 2において、 端末 B のシステム制御部 3 0 7は、 情報弁別部 3 2 1に、 端末 Aのキーボードからキ 一入力がされたか否かを判定させ、 入力されたと判定されるまで待機する。
ステップ S 3 8 2において、 キー入力がされたと判定された場合、 ステップ S 3 8 3に進み、 端末 Bのシステム制御部 3 0 7は、 特徴抽出部 3 2 2に、 端末 A から送信されてきた使用者 aのキーボード打鍵時の振動情報のサンプリング処 理を開始させる。 そして、 ステップ S 3 8 4に進み、 端末 Bのシステム制御部 3 0 7は、 意味抽出部 3 2 3に、 入力された文字情報を解析させる。 ステップ S 3 8 5において、 端末 Bのシステム制御部 9 7は、 解析された文字情報の中に 感情、 状態、 およびその強度を表す語句があるか否かを判定し、 感情、 状態、 お よびその強度を表す語句がないと判定された場合、 ステップ S 3 8 2に戻り以降 の処理を繰り返し実行する。 感情 ·状態を表す語句は実施の形態 1の場合と同様 に、 図 2 3に示されるようなものであり、 強度を示す語句は図 2 4に示されるよ うなものである。
ステップ S 3 8 5において、 感情、 状態、 およびその強度を示す語句があると 判定された場合、 端末 Bのシステム制御部 3 0 7は、 ステップ S 3 8 6におい て、 認識された語句の主語は使用者か否か、 すなわち、 解析された語句が、 使用 者 aの感情、 状態、 およびその強度を表す語句であるか否かを判定し、 主語は 使用者ではないと判定された場合、 ステップ S 3 8 2に戻り、 以降の処理を繰り 返し実行する。 ステップ S 6において、 主語は使用者であると判定された場合、 端末 Bのシ ステム制御部 3 0 7は、 ステップ S 3 8 7において、 文字情報が 1フレーズ分入 力されたか否かを判定し、 1フレーズ分入力されたと判定されるまで待機する。 ステップ S 3 8 7において、 1フレーズ分入力されたと判定された場合、 端末 Bのシステム制御部 3 0 7は、 ステップ S 3 8 8に進み、 特徴抽出部 3 2 2に、 キーポード打鍵時の振動情報のサンプリング処理を終了させる。
なお、 キーボード打鍵時の振動情報のサンプリング処理は、 端末 Aの特徴抽 出部 3 2 2において行い、 サンプリングした結果を端末 Bに送信してもよい。 そして、 ステップ S 3 8 9に進み、 端末 Bのシステム制御部 3 0 7は、 意味抽 出部 3 2 3で、 感情情報 Eを抽出する。
使用者 aが 「とてもうれしい」 と入力した場合、 「うれしい」 という語句に 対応する感情 ·状態は喜びであり、 「とても」 という語句に対応する強度は強で あると認識され、 感情情報 Eとして、 「強い喜び」 が抽出される。
ステップ S 3 9 0において、 端末 Bのシステム制御部 3 0 7は、 特徴抽出部 3 2 2で使用者 aの脈拍情報に基づいて、 特徴べクトル Vcを生成し、 ステップ 3 9 1に進み、 個人を特定する情報 PID、 感情情報 Eに対応する振動情報を蓄積 部 3 0 5から読み出す。 この場合、 使用者 aの強い喜びに対応する振動情報の 特徴ベク トルが読み出される。 そして、 ステップ S 3 9 2に進み、 端末 Bのシ ステム制御部 3 0 7は、 学習部 3 0 4に、 読み出された特徴べクトルに新たに生 成された特徴べクトル Vcを加えて、 ベタ トルの分布 fvc、 分布の中心べクトル V〃、 標準偏差ベク トル ν σを再計算させ、 ステップ S 3 9 3において、 再計算 した結果を蓄積部 3 0 5に記憶する。
次に図 5 1と図 5 2を参照して、 振動情報の特徴べクトル Vcの生成処理につ いて説明する。 この処理は、 端末 Bの特徴抽出部 3 2 2で行われる。 ステップ S 4 0 1において、 端末 Bの特徴抽出部 3 2 2は、 サンプリングした振動情報 を読み出し、 その後、 実施の形態 1の場合と同様に、 ステップ S 4 0 2において、 図 1 6の極性判定処理を行い、 ステップ S 40 3に進み、 図 1 7の TV出力処理 を行い、 ステップ S 40 4において、 図 1 8の Vmin, Vmax判定処理を行う。 キーボー.ド打鍵時の振動情報の波形は図 54に示す波形 4 9 1のようになる。 この波形 4 9 1には、 使用者がキーが押下されることにより、 細かく振動する部 分 4 9 2、 4 9 4と使用者がキーに触れていないので、 ほとんど振動しない部分 4 9 3、 4 9 5が存在する。 細かく振動する部分 4 9 2、 4 9 4をサンプリング し、 極性判定処理、 TV出力処理を行うと、 Tv+、 TvO、 Tv -、 ΤνΟ、 Τν+. . . の ような出力を得る。 一方、 ほとんど振動しない部分 4 9 3、 4 9 5をサンプリン グし、 極性判定処理、 TV出力処理を行うと、 TvOだけが出力され、 この ΤνΟは かなり大きな値となる。 従って、 所定の時間である閾値 Thより、 小さい TvOが 出力されたとき、 使用者はキーを押下しており、 Thより大きい TvOが出力され たとき、 使用者はキーを押下していないことが分かる。
図 5 2のステップ S 4 0 5において、 端末 Bの特徴抽出部 3 2 2は、 変数 n と Pに 1をセットし、 ステップ S 40 6に進み TvO (P)が閾値 Thより大きいか否 かを判定し、 Tv0(P)が Thより大きくないと判定された場合、 ステップ S 4 0 7 に進み、 Tstr(n)に、 Tstr(n)+Tv+(P)+Tv- (P)をセットする。 Tsr(n)の初期値 は 0である。
ステップ S 4 0 8において、 端末 Bの特徴抽出部 3 2 2は、 Vmax (P)が、 Imax(n)より大きいか否かを判定する。 Imax (n)の初期値は 0である。 ステップ S 40 8において Vmax (P)が、 Imax (n)より大きいと判定された場合、 端末 Bの 特徴抽出部 3 2 2は、 ステップ S 4 0 9に進み、 Imax (n)に Vmax(P)をセットし ステップ S 4 1 0において Pの値を 1だけィンクリメントして、 ステップ S 40 6に戻り、 以降の処理を繰り返し実行する。 ステップ S 4 0 8において Vmax(P) 力 S、 Imax(n)より大きくないと判定された場合、 ステップ S 4 0 9の処理はスキ ップされる。
ステップ S 4 0 6において、 TvO (P)が Thより大きいと判定された場合、 端末 Bの特徴抽出部 3 2 2は、 ステップ S 4 1 1に進み、 Tint (n)に TvO (P)をセット し、 Pの値を 1だけインクリメントし、 特徴量ベク トル Vcl (Tstr(n),
Tint(n), Imax(n)) を生成する。 ステップ S 4 1 3において、 端末 Bの特徴抽出 部 3 2 2は、 TvO(P)があるか否かを判定し、 ΤνΟ(Ρ)があると判定された場合、 ステップ S 4 1 4に進み、 ηの値を 1だけインクリメントし、 ステップ S 4 0 6 に戻り、 以降の処理を繰り返し実行する。
ステップ S 4 1 3において、 ΤνΟ(Ρ)がないと判定された場合、 端末 Βの特徴 抽出部 3 2 2は、 処理を終了する。
このようにして、 図 5 4に示す波形 4 9 1から図 5 5 Αに示される Tstr(l) 5 1 1、 Tint(l) 5 1 2、 Tstr(2) 5 1 3、 Tint (2) 5 1 4、 Tstr(3) 5 1 5、 Tint (3) 5 1 6、 Tstr(4) 5 1 7、 Tint (4) 5 1 8、 Tstr(5) 5 1 1、 Tint (5) 5 1 2が得られる。 Tstr(l)乃至 Tstr(5)は、 使用者によりキーが押下されている 時間を示し、 Tint (1)乃至 Tint (5)はキーが押下される間隔を示す。 この例では、 キーが 5回押下 (打鍵) されたことが分かる。
また、 図 54に示す波形 4 9 1から図 5 5 Bに示される Imax(l) 5 3 1、 Imax(2) 5 3 2、 Iraax(3) 5 3 3、 Imax(4) 5 34、 Imax(5) 5 3 5が得られる。 Imax(l)乃至 Iraax(5)はそれぞれ、 1乃至 5回目の打鍵時における最大振動強度 である。
このようにして、 使用者 aの強い喜びに対応する振動情報の特徴べク トル Vc が生成される。
ここまで、 端末 Bが、 端末 Aから送信された使用者 aのキーボードを打鍵時 の振動情報から特徴量べク トル を生成し、 蓄積する処理について説明したが、 同様に端末 Bは、 使用者 bのキーボード打鍵時の振動情報から特徴量べクトル を生成し、 蓄積する。 その結果、 端末 Bの蓄積部 9 5には、 図 5 3にしめされ るような、 キーボードの振動情報に関する学習結果 4 6 1がそれぞれ、 使用者 a と使用者 bに分けて蓄積される。
また、 端末 Aも同様にして、 キーボードの振動情報に関する学習結果をそれ ぞれ、 使用者 aと使用者 bに分けて蓄積することができる。 上述した振動情報蓄積処理を繰り返し行い、 振動情報が充分蓄積された後は、 振動情報をもとに、 使用者の感情、 状態、 およびその強度を特定することができ る。
次に図 5 6を参照して、 端末 B による感情状態の特定処理について説明する。 ステップ S 4 3 1において、 端末 Bのシステム制御部 3 0 7は、 端末 Aとの 通信開始時に、 通信相手である端末 Aの使用者 aを特定する情報 PIDを取得す る。 ステップ S 4 3 2において、 端末 Bのシステム制御部 3 0 7は、 情報弁別 部 3 2 1に、 端末 Aから送信されてきた使用者 aのキー入力情報が入力された か否かを判定させ、 入力されたと判定されるまで待機する。
ステップ S 4 3 2において、 キー入力情報が入力されたと判定された場合、 ス テツプ S 4 3 3に進み、 端末 B のシステム制御部 9 7は、 特徴抽出部 3 2 2に、 端末 Aから送信されてきた使用者 aのキーボード打鍵時の振動情報のサンプリ ング処理を開始させる。 そして、 ステップ S 4 3 4に進み、 端末 Bのシステム 制御部 3 0 7は、 意味抽出部 3 2 3に 1フレーズ分入力された否かを判定させ、 1フレーズ分入力されたと判定されるまで待機する。 ステップ S 4 3 4において、 1フレーズ分入力されたと判定された場合、 端末 B のシステム制御部 3 0 7は、 特徴抽出部 3 2 2に、 端末 Aから送信されてきた使用者 aのキーボード打鍵時 の振動情報のサンプリング処理を終了させる。
なお、 キーボード打鍵時の振動情報のサンプリング処理は、 端末 Aの特徴抽 出部 3 2 2において行い、 サンプリングした結果を端末 Bに送信してもよい。 ステップ S 4 3 6において、 端末 Bのシステム制御部 3 0 7は、 特徴抽出部 1 1 2に、 特徴べク トル Vch の生成処理を実行させ、 ステップ S 4 3 7に進み、 学習部 3 0 4に Vchの感情、 状態、 およびその強度の特定処理を実行させ、 ス テツプ S 4 3 8に進み、 特定結果出力再計算処理を実行させる。
次に図 5 7と図 5 8を参照して、 Vch生成処理について説明する。 この処理は 端末 Bの特徴抽出部 3 2 2において実行される。 ステップ S 4 5 1において、 端末 B の特徴抽出部 3 2 2は、 サンプリングした振動情報を読み出し、 その後、 実施の形態 1の場合と同様に、 ステップ S 4 5 2において、 図 1 6の極性判定処 理を行い、 ステップ S 4 5 3に進み、 図 1 7の TV出力処理を行い、 ステップ S
4 54において、 図 1 8の Vmiii, Vmax判定処理を行う。
図 5 8のステップ S 4 5 5において、 端末 Bの特徴抽出部 3 2 2は、 変数 n と Pに 1をセットし、 ステップ S 4 5 6に進み TvO(P)が閾値 Thより大きいか否 かを判定し、 TvO(P)が Thより大きくないと判定された場合、 ステップ S 4 5 7 に進み、 Tstr(n)に、 Ts1:r(n) +Tv+(P) +Tv- (P)をセットする。 Tsr(n)の初期値 は 0である。
ステップ S 4 5 8において、 端末 Bの特徴抽出部 3 2 2は、 Vmax (P)が、 Imax(n)より大きいか否かを判定する。 Imax(n)の初期値は 0である。 ステップ
54 5 8において Vmax (P)が、 Imax (n)より大きいと判定された場合、 端末 Bの 特徴抽出部 3 2 2は、 ステップ S 4 5 9に進み、 Imax ( に Vmax (P)をセットし、 ステップ S 4 6 0において Pの値を 1だけィンクリメントして、 ステップ S 4 5 6に戻り、 以降の処理を繰り返し実行する。 ステップ S 4 5 8において Vmax(P) 力 Imax(n)より大きくないと判定された場合、 ステップ S 4 5 9の処理はスキ ップされる。
ステップ S 4 5 6において、 TvO(P)が Thより大きくいと判定された場合、 端 末 Bの特徴抽出部 3 2 2は、 ステップ S 4 6 1に進み、 Tint (n)に TvO (P)をセ ットし、 Ρの値を 1だけインクリメントし、 ステップ S 4 6 2において特徴量べ タ トル Vc (Tstr(n), Tint (n) , Iraax (n) ) を生成する。 ステップ S 4 6 3におい て、 端末 Bの特徴抽出部 3 2 2は、 Tv0(P)があるか否かを判定し、 Tv0(P)があ ると判定された場合、 ステップ S 4 6 5に進み、 ηの値を 1だけインクリメント し、 ステップ S 4 5 6に戻り、 以降の処理を繰り返し実行する。
ステップ S 4 6 3において、 Tv0(P)がないと判定された場合、 端末 Βの特徴 抽出部 3 2 2は、 ステップ S 4 6 4に進み、 Vc の平均べク トル Vch を生成する。 例えば、 使用者 aが端末 Aから 「それはどうかな . ■ ■」 を " s o r e h a d o u k a n a · ■ · " とローマ字で入力した場合、 その振動情報が端末 Bに 送信され、 端末 Bにおいて、 最後の "■ " を除いた 1 5文字のキー入力に対応 した 1 5個の特徴量べク トル Vcが生成される。 この 1 5個の特徴量べクトノレ Vc の平均べク トルが Vchとなる。
次に図 5 9を参照して、 Vchの感情、 状態、 およびその強度の特定処理につい て説明する。 この処理は、 端末 Bの学習部 3 0 4において実行される。
ステップ S 4 8 1において、 端末 Bの学習部 3 0 4は、 蓄積部 3 0 5に蓄積 されている使用者 aに対応する振動情報の特徵量べク トルの分布 fvc、 分布の中 心べク トル V 、 分布の標準偏差べク トル ν σを読み出す。
上述したように感情情報は 3 6通りあり、 fvc,V i,V CTも感情情報に対応して それぞれ 3 6通り存在する。
ステップ S 4 8 2において、 端末 Bの学習部 3 0 4は、 変数 Qに 1をセット し、 ステップ S 4 8 3に進み、 ベクトル V i (Q)とステップ S 4 3 6 (図 5 6 ) で生成した特徴量べクトル Vchの内積値を算出し、 内積値に対応させて V (Q) を記憶する。 そして、 ステップ S 4 8 4に進み、 端末 Bの学習部 3 0 4は、 Qの 値を 1だけインクリメントし、 ステップ 4 8 5において、 全ての感情情報につい て計算したか否か、 すなわち、 3 6種類の中心ベク トル V / について、 内積値 を計算したか否かを判定し、 全ての感情情報について計算していないと判定され た場合、 ステップ S 4 8 3に戻り、 以降の処理を繰り返し実行する。
全ての感情情報に対応する 3 6種類の中心べクトノレ V jt について内積値の計 算が終わると、 端末 Bの学習部 3 0 4の中にある図示せぬ記憶部には、 実施の 形態 1の場合と同様に感情情報、 内積値、 中心ベクトル V の種類、 内積値の 大きさの順序が含まれたデータが記憶されている。 ステップ S 4 8 6において、 端末 Bの学習部 3 0 4は、 内積値の大きい順にデータをソートする。
ステップ S 4 8 7において、 端末 Bの学習部 3 0 4は、 変数 に 1をセット し、 S 4 8 8において、 全ての感情情報に関してデータが読み出されたか否かを 判定し、 全ての感情情報に関してデータが読み出されていないと判定された場合、 ステップ S 4 8 9に進み、 ソートしたデータを読み出す。 ステップ S 4 9 0にお 2003/012758
45
いて、 変数 mに 1をセットし、 ステップ S 49 1に進み、 V i (R)m—
Va (R)m≤Vchra≤Vj(i (R)m+Va (R)raの条件を満たしているか否かを判定する。 ここで、 V〃(R)mは、 ベクトル V (R)の m番目の成分を表し、 V (R)m, Vchtn もそれぞれ同様にベク トル νσ, Vchの m番目の成分を表す。 振動情報の特徴量 ベクトルは上述したように Tstr, Tint, Imaxの 3個の成分により構成されてい る。 mの値が 1のとき、 V〃(R), ν (R), Vcの各ベク トルの Tstr成分が抽出 され、 処理が行われる。
ステップ S 49 1において、 V (R) m- V σ (R) m≤Vchm≤ V jU (R)m+Vび(R)mの 条件を満たしていないと判定された場合、 端末 Bの学習部 304は、 ステップ S 49 6に進み、 Rの値を 1だけインクリメントして、 ステップ S 48 8に戻り、 以降の処理を繰り返し実行する。 ステップ S 49 1において、 V i (R)m—
Va (R)m≤Vchm≤V^ (R)m+Va (R)mの条件を満たしていると判定された場合、 端末 Bの学習部 304は、 ステップ S 49 2に進み、 mの値を 1だけインクリ メントして、 ステップ S 49 3に進み、 mの値が 4と等しいか否かを判定し、 m の値が 4と等しくないと判定された場合、 ステップ S 49 1に戻り、 以降の処理 を繰り返し実行する。
ステップ S 49 3において、 mの値が 4と等しいと判定された場合、 すなわち、 V jU (R) , V σ (R) , Vchの各ベクトルを構成する 3個の成分について、 全て、 VU (R)m-Va (R)m≤Vchm≤V i (R) m + V σ (R) mの条件を満たしていると判定され た場合、 端末 Bの学習部 304は、 ステップ S 4 94に進み、 Vchは Rに対応す る感情情報 Eに属しているものと特定する。
ステップ S 488において、 全ての感情情報に関してデータを読み出したと判 定された場合、 端末 Bの学習部 304は、 Vchの感情、 状態、 およびその強度を 特定不能として処理を終了する。
図 60は、 使用者 aの各感情情報に対応する振動情報の特徴量べクトルを示 した図である。 この図は、 Tstr軸、 Tint軸、 Imax軸からなる 3次元空間とし て示されている。 図 56のステップ S 43 6において生成された特徴量べク トル 5 5 5 (Vch) は、 「嫌悪 ·弱」 に対応する特徴量べクトルの分布 5 5 7の中心 ベクトル 5 5 6 (V 15) と近接して.おり、 上述した Vchの感情、 状態、 および その強度特定処理の結果、 「缣悪 ·弱」 を示す特徴量べク トルであると特定され る。
このようにして、 特徴量べク トル Vch力、ら、 使用者 aの感情、 状態、 および その強度が特定される。
次に図 6 1を参照して、 特定結果出力再計算処理について説明する。 この処理 は、 端末 Bの学習部 3 0 4において実行される。 ステップ S 5 1 1において、 端末 Bの学習部 3 0 4は、 特定結果を出力制御部 3 2 4に出力し、 ステップ S 5 1 2において使用者 aの感情情報 Eに対応する振動情報の特徴量べク トルの 分布 fvc、 分布の中心べク トル V 、 分布の標準偏差べク トル V crを再計算し、 蓄積する。 すなわち、 ステップ S 4 3 6 (図 5 6 ) で生成された特徴量ベク トル Vchは、 蓄積部に蓄積されている使用者 aの 「嫌悪 '弱」 を示す振動情報の特徴 量べク トルに加えられ、 あらたに、 fvc、 μ、 および ν σが計算され、 蓄積部 3 0 5に蓄積される。
このようにして、 振動情報から感情、 状態、 およびその強度が特定される。 ま た、 感情、 状態、 およびその強度が特定された特徴量べク トルの情報が、 あらた に蓄積される。
ここまで、 端末 Βが、 端末 Αから送信された使用者 aのキーボード打鍵時の 振動情報から特徴量べク トル Vchを生成し、 感情、 状態、 およびその強度を特 定する処理について説明したが、 同様に端末 Bは、 使用者 bについてのキーポ ード打鍵時の振動情報から特徴量ベク トルを生成し、 感情、 状態、 およびその強 度を特定することもできる。
また、 端末 Aも同様にして、 使用者 aと使用者 bの感情、 状態、 およびその 強度を特定することができる。
次に、 図 6 2と図 6 3を参照して、 情報出力処理について説明する。 ステップ S 5 3 1において、 システム制御部 3 0 7は、 出力情報が選択されたか否かを判 定し、 選択されたと判定されるまで待機する。 出力情報の選択は、 実施の形態 1 の場合と同様に、 例えば、 端末のディスプレイ上に表示されたメニューを使用者 が選択することによって行われる。 使用者が選択できるメニューは、 「特定結 果」 、 「特徴量に基づく情報」 、 「波形情報」 、 および 「蓄積情報」 の 4種類が ある。
ステップ S 5 3 1において、 出力情報が選択されたと判定された場合、 システ ム制御部 3 0 7は、 ステップ S 5 3 2に進み、 特定結果が選択されたか否かを判 定し、 特定結果が選択された判定された場合、 ステップ S 5 3 3において、 特定 結果に対応する 2ビッ トの選択情報 0◦を出力制御部 3 2 4に送信する。
ステップ S 5 3 4において、 出力制御部 3 2 4は、 感情、 状態、 およびその強 度の特定結果を出力する。 例えば、 端末のディスプレイ上に 「弱い嫌悪を示して いるようです。 」 という文字が出力される。
ステップ S 5 3 2において、 特定結果が選択されていないと判定された場合、 システム制御部 3 0 7は、 ステップ S 5 3 5に進み、 特徴量に基づく情報が選択 されたか否かを判定し、 特徴量に基づく情報が選択されたと判定された場合、 ス テツプ S 5 3 6に進み、 特徴量に基づく情報に対応する 2ビットの選択情報 0 1 を出力制御部 3 2 4に送信する。
ステップ S 5 3 7において、 出力制御部 3 2 4は、 特徴量 (Tstr,
Tint, Imax) を特徴抽出部 3 2 2から取得し、 ステップ S 5 3 8に進み、 振動呈 示部駆動信号を生成する。 すなわち、 出力のレベルを Iraaxとし、 出力 ON時間 を Tstrとし、 出力 OFF時間を Ti ntとして、 図 6 4に示されるような矩形波信 号を生成する。 そして、 ステップ S 5 3 9に進み、 出力制御部 3 2 4は、 振動提 示部 3 6 2を駆動させる。
ステップ S 5 3 5において、 特徴量に基づく情報が選択されていないと判定さ れた場合、 システム制御部 3 0 7は、 ステップ S 5 4 0において、 波形情報が選 択されたか否かを判定し、 波形情報が選択されたと判定された場合、 波形情報に 対応する 2ビッ トの選択情報 1 0を出力制御部 3 2 4に送信する。 ステップ S 5 4 2において、 出力制御部 3 2 4は、 特徴抽出部 3 2 2からサンプリングされた 振動情報を取得し、 波形信号を生成し、 ステップ S 5 4 3において振動呈示部 3 6 2を駆動させる。
ステップ S 5 4 0において、 波形情報が選択されていないと判定された場合、 システム制御部 3 .0 7は、 ステップ S 5 4 4に進み、 蓄積情報が選択されたか否 かを判定し、 蓄積情報が選択されたと判定された場合、 ステップ S 5 4 5に進み、 蓄積情報に対応する 2ビッ トの選択情報 0 1を出力制御部 3 2 4に送信する。 蓄積情報が選択された場合、 端末のディスプレイ上に更にサブメニューが表示 され、 使用者は、 どの蓄積情報を出力するかを選択することができる。 すなわち、 キーボードの振動情報などの情報の種類 inf、 個人を特定する情報 PID、 感情情 報 Eが選択される。 例えば、 inf としてキーボードの振動情報、 PIDとして個人 a、 Eとして 「強い活性」 などが選択される。
ステップ S 5 4 6において、 システム制御部 3 0 7は、 情報の種類 inf、 個人 を特定する情報 PID、 感情情報 Eが選択されたか否かを判定し、 選択されたと判 定されるまで待機する。
ステップ S 5 4 7において、 システム制御部 3 0 7は、 使用者に選択された情 報に基づいて (inf, PID, E) の情報を生成し、 出力制御部 3 2 4に送信する。 ステップ S 5 4 8において出力制御部 3 2 4は、 (inf, PID, E) に基づいて、 蓄積部 3 0 5からキーボードの振動情報の中心べクトルを取得する。 この場合、 蓄積部に蓄積されている個人 aの 「強い活性」 に対応する脈拍情報の特徴量べ ク トノレの分布の中心ベク トル V jU (Tstr, Tint, Imax) が取得される。
ステップ S 5 4 9において、 出力制御部 3 2 4は、 中心べク トノレ V〃 に基づ いて、 振動呈示部駆動信号を生成する。 すなわち、 出力のレベルを Imaxとし、 出力 ON時間を Tstrとし、 出力 OFF時間を Tintとして、 図 6 5に示されるよう な矩形波 5 9 1の信号を生成し、 ステップ S 5 5 0において振動呈示部 3 6 2を 駆動信号に基づいて、 3回駆動させる。 ステップ S 5 4 4において、 蓄積情報が選択されていないと判定された場合、 システム制御部 3 0 7は、 ステップ S 5 5 1に進み、 エラー処理を実行して、 処 理を終了する。
このようにして、 使用者は、 振動情報から特定された感情、 状態、 およびその 強度を表示させ、 認識することができる。 また、 振動呈示部を駆動させることに より、 振動情報を体感することができる。
実施の形態 3
図 6 6に本発明の第 3の情報処理装置の構成例を示す。 この情報処理装置は、 パーソナルコンピュータなどに適用することができる。 この情報処理装置には、 感情申告情報、 マウスクリック情報、 マウス握り圧情報、 環境温度情報の入力を 受け付ける入力部 6 1 1、 入力部 6 1 1から入力された情報を処理する処理部 6 1 3、 処理部 6 1 3から出力された特徴情報と感情態情報に基づいて、 学習、 特 定を行う学習部 6 1 4、 学習部 6 1 4から出力された学習情報、 特定情報を蓄積 する蓄積部 6 1 5、 処理部 6 1 3から出力された出力情報に基づいて、 情報を出 力する出力部 6 1 2、 通信を行う通信部 6 1 6、 および各部を制御するシステム 制御部 6 1 7が設けられている。
処理部 6 1 3には、 入力部 6 1 1から入力された情報を、 感情■状態申告情報、 環境温度情報、 マウスクリック情報またはマウス握り圧情報に分別する情報弁別 部 6 3 1、 マウスタリック情報とマウス握り圧情報から特徴情報を抽出する特徴 抽出部 6 3 2、 および出力部 6 1 2に出力情報を出力する出力制御部 6 1 2が設 けられている。 通信部 6 1 6には、 情報の送信を行う情報送信部 6 3 4、 情報の 受信を行う情報受信部 6 3 5が設けられている。
図 6 7に入力部 6 1 1の構成例を示す。 この例では、 マウス 6 5 1、 使用者が マウスを握るときの強度を検知する握り強度センサ 6 7 1、 握り強度センサ 6 7 1からの信号を圧力信号に変換する圧力検出部 6 5 2、 環境温度を測定する温度 センサ 6 5 3、 および温度センサ 6 5 3からの信号を増幅する電源アンプ部 6 5 4により構成されている。 図 6 8に出力部 6 1 2の構成例を示す。 この例では、 所定の信号に基づいて熱 を発生する温度呈示部 6 9 2、 温度呈示部を駆動する電源アンプ部 6 9 1により 構成されている。 温度呈示部 6 9 2は、 電流を流すと温度が変化するペルチェ素 子 6 9 3で構成されている。
使用者 aがもっている情報処理装置を端末 Aとし、 使用者 bがもっている情 報処理装置を端末 Bとして、 使用者 aと使用者 bがそれぞれの端末を用いて、 相互に通信を行う場合、 図 6 9に示される手順で情報の送受信が行われる。 最初 に端末 Aは、 端末 Bに接続要求を送信し、 それに対応して端末 Bは端末 Aに接 続応答を送信する。 その後、 端末 Aと端末 Bの間で、 メール、 チャットなどの 文字情報などを送受信する。
次に端末 Aはクリック情報と握り圧情報 (この例の場合、 使用者がマウスを 握るときの握り圧) の送受信の初期設定を行い、 端末 Bに送受信要求を送信す る。 このとき、 実施の形態 1の場合と同様に、 端末 Aから図 1 1に示される送 信設定情報と受信設定情報が送信される。
端末 Aから振動情報の送信要求を受け取った端末 Bは、 クリック情報と握り 圧情報送受信設定の変更を行い、 端末 Aに応答を送信する。
そして端末 Aから端末 B に使用者 aのタリック情報と握り圧情報が送信され、 端末 Bから端末 Aに使用者 bの振動情報が送信される。 端末 A、 端末 Bにはそれ ぞれクリック情報と握り圧情報が蓄積される。
端末 Aから端末 Bに接続終了要求が送信されると、 端末 Bはそれに応答し、 通信は終了する。
このようにして、 端末 Aと端末 Bの間で通信が行われ、 クリック情報と握り 圧情報が蓄積される。 クリック情報と握り圧情報が充分に蓄積された後は、 図 7 0に示されるように情報の送受信が行われる。 すなわち、 端末 Aと端末 Bとの 間でクリック情報と握り圧情報が送受信されると、 端末 Aと端末 Bにおいて、 使用者の感情■状態の特定処理が行われる。 次に図 7 1を参照して、 端末 Bにおけるクリック情報、 握り圧情報蓄積処理 について説明する。 最初に端末 Bのシステム制御部 6 1 7は、 ステップ S 5 7 1において、 端末 Aとの通信開始時に、 通信相手である端末 Aの使用者 aを特 定する情報 (例えば、 氏名、 ニックネームなど) PIDを取得し、 ステップ S 5 7 2において、 端末 Aから送信されてきた環境温度情報 Kを取得する。 ステップ S 5 7 2において、 端末 Bのシステム制御部 6 1 7は、 情報弁別部 6 3 1に、 端末 Aから感情■状態申告情報の入力があつたか否かを判定させ、 入力された と判定されるまで待機する。
端末 Aのディスプレイには、 図 7 6に示されるような感情 ·状態チャートが 表示されており、 使用者 aは、 この感情 '状態チャートをマウスで所定の回数 だけクリックすることにより感情 ·状態の申告を行う。 感情 ·状態チャートをマ ウスでクリックすると、 図 7 7に示される感情 '状態申告情報が端末 Aから端 末 Bに送信される。 また感情 '状態の強度は、 感情 '状態チャートをクリック する回数により申告することができ、 強度が弱のときは2回、 強度が中のときは 3回、 強度が強のときは 4回クリックする。
また、 使用者の感情 .状態の申告情報は、 仮想空間における使用者のエージェ ント (例えば、 アバターなど) を用いて取得することもできる。
ステップ S 5 7 3において、 感情 ·状態申告情報の入力があつたと判定された 場合、 ステップ S 5 7 4に進み、 端末 Bのシステム制御部 6 1 7は、 特徴抽出 部 6 3 2に、 端末 Aから送信されてきた使用者 aのクリック情報と握り圧情報 のサンプリング処理を開始させる。 そして、 ステップ S 5 7 5に進み、 端末 B のシステム制御部 6 1 7は、 感情 ·状態申告情報のから、 感情情報 E を抽出し、 ステップ S 5 7 6において、 特徴抽出部 6 3 2に、 クリック情報と握り圧情報の サンプリング処理を終了させる。
なお、 マウスのクリック情報と握り圧情報のサンプリング処理は、 端末 Aの 特徴抽出部 6 3 2において行い、 サンプリングした結果を端末 Bに送信しても よい。 使用者 aが感情■状態申告チャートの驚きの部分をマウスで 4回クリックし た場合、 感情情報 Eとして、 「強い驚き」 が抽出される。
ステップ S 5 7 7において、 端末 Bのシステム制御部 6 1 7は、 特徴抽出部 6 3 2に、 使用者 aのタリック情報と握り圧情報に基づいて、 特徴べク トル Vc の生成処理を実行させ、 ステップ S 5 7 8に進み、 環境温度 Kの値が、 基準値 K1以上であるか否かを判定し、 環境温度 Kの値が、 基準値 K1以上であると判定 された場合、 ステップ S 5 7 9に進み、 K≥K1における PIDと Εに対応するクリ ック情報と握り圧情報を蓄積部 6 1 5から読み出す。 この場合、 環境温度が K1 以上のときの使用者 aの強い驚きに対応するクリック情報と握り圧情報の特徴 ベタトルが読み出される。
ステップ S 5 7 8において、 環境温度 Kの値が、 基準値 K1未満であると判定 された場合、 端末 Bのシステム制御部 6 1 7は、 ステップ S 5 8 0に進み、 K< Klにおける PIDと Eに対応するタリック情報と握り圧情報を蓄積部 6 1 5から 読み出す。 この場合、 環境温度が K1未満のときの使用者 aの強い驚きに対応す るタリック情報と握り圧情報の特徴べクトルが読み出される。
そして、 ステップ S 5 8 1に進み、 端末 Bのシステム制御部 6 1 7は、 学習 部 6 1 4に、 読み出された特徴べクトルに新たに生成された特徴べク トル Vcを 加えて、 べク トルの分布 fvc、 分布の中心べクトル V 、 標準偏差べクトル ν σ を再計算させ、 ステップ S 5 8 2において、 再計算した結果を蓄積部 6 1 5に記 憶する。
次に図 7 3を参照して、 クリック情報と握り圧情報の特徴べクトル Vcの生成 処理について説明する。 この処理は、 端末 Bの特徴抽出部 6 3 2で行われる。 ステップ S 5 9 1において、 端末 Bの特徴抽出部 6 3 2は、 サンプリングした クリック情報と握り圧情報を読み出し、 その後、 実施の形態 1の場合と同様に、 ステップ S 5 9 2において、 図 1 6の極性判定処理を行い、 ステップ S 5 9 3に 進み、 図 1 7の TV出力処理を行い、 ステップ S 5 9 4において、 図 1 8の Vmin, Vtnax判定処理を行い、 ステップ S 5 9 5において、 後述するクリック特徴算出 処理を行い、 値 Tclmと Tcimを取得する。
そして、 ステップ S 5 9 6に進み、 端末 Bの特徴抽出部 6 3 2は、 サンプリ ングした握り圧情報を読み出し、 ステップ S 5 9 7において、 極性判定処理を行 い、 ステップ S 5 9 8に進み、 TV 出力処理を行い、 ステップ S 5 9 9において
Vmin, Vtnax判定処理を行い、 ステップ S 6 0 0において、 後述する握り圧特徴 算出処理を行い、 値 Tgrpmと I grpmを取得する。
ステップ S 6 0 1において、 端末 Bの特徴抽出部 6 3 2は、 特徴量ベク トル
Vc u'clm, Tcim, Tgrpm, Igrpm) を生成する。
次に図 7 4を参照して、 クリック特徴算出処理について説明する。 使用者が マウスをクリックするときのクリック情報の波形は図 7 9に示す波形のようにな る。 すなわち、 使用者がマウスのクリックボタンを押下しているとき、 パルス 7
7 1、 パルス 7 7 3、 パルス 7 7 5、 パルス 7 7 7が出力され、 クリックボタン が押下される間の時間 7 7 2,時間 7 7 4,時間 7 7 6は、 それぞれ出力が 0と なる。 この波形をサンプリングし、 極性判定処理、 TV出力処理を行うと、 Tv十、
Τν0、 Τν+、 Τν0、 Τν+. . . のような出力を得る。
図 7 4のステップ S 6 2 1において、 端末 Βの特徴抽出部 6 3 2は、 変数 η と Ρに 1をセットし、 ステップ S 6 2 2に進み Tcl (n)に Tv+ (P)の値をセットし
Tci (n)に ΤνΟ (Ρ)の値をセットする。 そして、 ステップ S 6 2 3に進み、 端末 Β の特徴抽出部 6 3 2は、 Ρと ηの値を 1だけィンクリメントし、 ステップ S 6 2
4において、 Τν+ (Ρ)または ΤνΟ (Ρ)があるか否かを判定し、 Τν+ (Ρ)または
ΤνΟ (Ρ)があると判定された場合、 ステップ S 6 2 2に戻り、 以降の処理を繰り 返し実行する。
ステップ S 6 2 4において、 Τν+ (Ρ)または ΤνΟ (Ρ)がないと判定された場合、 端末 Βの特徴抽出部 6 3 2は、 ステップ S 6 2 5に進み、 Telの平均値 Tclmと Tciの平均値 Tciraを計算する。 図 7 9の場合、 Tcltnと Tciraは、 それぞれ次の 式で算出される。 Tclm= (Tel (1) +Tcl (2) +Tcl (3) +Tcl (4) ) /4 Tcim= (Tci(l)+Tci(2)+Tci(3)) / 3
次に、 図 7 5を参照して、 握り圧特徴算出処理について説明する。 使用者がマ ウスを握るときの握り圧情報は、 図 8 0に示すような波形 7 9 1になる。 この波 形をサンプリングし、 極性判定処理、 TV出力処理を行うと、 Τν+、 ΤνΟ,
Τν+. . . のような出力を得る。 すなわち、 使用者がマウスを閾値 VthOより強 い強度で握っている時間は Tv+となり、 閾値 VthOより弱い強度で握っている時 間は TvOとなる。
また、 Vmax, Vtnin判定処理を行うと、 使用者がマウスを閾値 VthOより強い強 度で握っている時間 Tv+における出力の最大強度 Vm を得る。
ステップ S 6 4 1において、 端末 Bの特徴抽出部 6 3 2は、 変数 nと Pに 1 をセットし、 ステップ S 64 2に進み Tgrp(n)に Tv+(P)の値をセットし、 Igrp(n)に Vmax(P)の値をセットする。
ステップ S 6 4 3において端末 Bの特徴抽出部 6 3 2は、 Pと nの値を 1だけ インクリメントして、 ステップ S 6 4 4に進み、 Tv+(P)または Tv0(P)があるか 否かを判定し、 Τν+(Ρ)または Tv0(P)があると判定された場合、 ステップ S 64 5に進み、 Tgrpの平均値 Tgrptnと Igrpの平均値 Igrptnを算出する。 図 8 0 の場合、 Tgrpmと Igrpmは、 それぞれ次の式で算出される。 Tgrpm=
(Tgrp(l)+Tgrp(2)) /2 Igrpm= (Igrp (1) +Igrp (2) ) / 2
このようにして、 使用者 aの強い驚きに対応するクリック情報と握り圧情報 の特徴べク トノレ Vcが生成される。
ここまで、 端末 B力 端末 Aから送信された使用者 aのマウスのクリック情 報と握り圧情報から特徴量べクトル Vcを生成し、 蓄積する処理について説明し たが、 同様に端末 Bは、 使用者 bのマウスのクリック情報と握り圧情報から特 徴量べクトルを生成し、 蓄積する。 その結果、 端末 Bの蓄積部 6 1 5には、 図 7 8にしめされるように、 マウスのクリック情報と握り圧情報に関する学習結果 7 1 1がそれぞれ、 環境温度 K≥K1の場合 7 3 1と環境温度 Κ<Κ1の場合 7 3 2に分けて蓄積される。 さらに、 環境温度 K≥K1の場合 7 3 1と環境温度 K < K1 の場合 7 3 2のそれぞれにおいて、 マウスのタリック情報と握り圧情報は、 使用 者 aと使用者 bにに分けて蓄積される。
また、 端末 Aも同様にして、 マウスのクリック情報と握り圧情報に関する学 習結果をそれぞれ、 使用者 aと使用者 bに分けて蓄積することができる。
上述したクリック情報と握り圧情報の蓄積処理を操り返し行い、 クリック情報 と握り圧情報が充分蓄積された後は、 クリック情報と握り圧情報をもとに、 使用 者の感情、 状態、 およびその強度を特定することができる。
次に図 8 1を参照して、 端末 B による感情状態の特定処理について説明する。 ステップ S 6 6 1において、 端末 Bのシステム制御部 6 1 7は、 端末 Aとの 通信開始時に、 通信相手である端末 Aの使用者 aを特定する情報 PIDを取得す る。 ステップ S 6 6 2において、 端末 Bのシステム制御部 6 1 7は、 情報弁別 部 6 3 1に、 使用者 aのマウス入力があつたか否かを判定させ、 入力があった と判定されるまで待機する。
ステップ S 6 6 2において、 マウス入力があつたと判定された場合、 ステップ S 6 6 3に進み、 端末 Bのシステム制御部 6 1 7は、 特徴抽出部 6 3 2に、 端 末 Aから送信されてきた使用者 aのマウスのクリック情報と握り圧情報のサン プリング処理を開始させる。 そして、 ステップ S 6 6 4に進み、 端末 Bのシス テム制御部 6 1 7は、 情報弁別部 6 3 1にマウス入力が終わったか否かを判定さ せ、 マウス入力が終わったと判定されるまで待機する。
ステップ S 6 6 4において、 マウス入力が終わったと判定された場合、 端末 B のシステム制御部 6 1 7は、 特徴抽出部 6 3 2に、 端末 Aから送信されてきた 使用者 aのマウスのクリック情報と握り圧情報のサンプリング処理を終了させ る。
なお、 マウスのクリック情報と握り圧情報のサンプリング処理は、 端末 Aの 特徴抽出部 6 3 2において行い、 サンプリングした結果を端末 Bに送信しても よい。 ステップ S 6 6 6において、 端末 Bのシステム制御部 3 1 7は、 特徴抽出部 6 3 2に、 特徴ベク トル Vcの生成処理を実行させ、 ステップ S 6 6 7に進み、 学習部 6 1 4に Vcの感情、 状態、 およびその強度の特定処理を実行させ、 ステ ップ S 6 6 8において、 特定結果出力再計算処理を実行させる。
次に図 8 2を参照して、 Vc生成処理について説明する。 この処理は端末 Bの 特徴抽出部 6 3 2において実行される。 ステップ S 6 8 1において、 端末 Bの 特徴抽出部 6 3 2は、 サンプリングしたクリック情報と握り圧情報を読み出し、 ステップ S 6 8 2において、 極性判定処理を行い、 ステップ S 6 8 3に進み、 TV出力処理を行い、 ステップ S 6 8 4において、 Vmin, Vtnax判定処理を行い、 ステップ S 6 8 5において、 後述するクリック特徴算出処理を行い、 値 Tclmと Tcimを取得する。
そして、 ステップ S 6 8 6に進み、 端末 Bの特徴抽出部 6 3 2は、 サンプリ ングした握り圧情報を読み出し、 ステップ S 6 8 7において、 極性判定処理を行 レヽ、 ステップ S 6 8 8に進み、 TV 出力処理を行い、 ステップ S 6 8 9において、 Vmi n, Vmax判定処理を行い、 ステップ S 6 9 0において、 後述する握り圧特徴 算出処理を行い、 値 Tgrpmと I grprnを取得する。
ステップ S 6 9 1において、 端末 Bの特徴抽出部 6 3 2は、 特徴量べクトル Vc (Tc lm, Tcim, Tgrpm, Igrpm) を生成する。
次に図 8 3を参照して、 クリック特徴算出処理について説明する。
ステップ S 7 1 1において、 端末 Bの特徴抽出部 6 3 2は、 変数 nと Pに 1 をセットし、 ステップ S 7 1 2に進み Tc l (n)に Tv+ (P)の値をセットし、 Tc i (n) に TvO (P)の値をセットする。 そして、 ステップ S 7 1 3に進み、 端末 Βの特徴 抽出部 6 3 2は、 Ρと ηの値を 1だけィンクリメントし、 ステップ S 7 1 4にお いて、 Τν+ (Ρ)または ΤνΟ (Ρ)があるか否かを判定し、 Τν+ (Ρ)または ΤνΟ (Ρ)があ ると判定された場合、 ステップ S 7 1 2に戻り、 以降の処理を繰り返し実行する。 ステップ S 7 14において、 Tv+(P)または TvO(P)がないと判定された場合、 端末 Βの特徴抽出部 6 32は、 ステップ S 7 1 5に進み、 Telの平均値 Tclmと Tciの平均値 Tcimを計算する。
次に、 図 84を参照して、 握り圧特徴算出処理について説明する。 ステップ S 73 1において、 端末 Bの特徴抽出部 632は、 変数 nと Pに 1をセッ トし、 ステップ S 73 2に進み Tgrp(n)に Tv+(P)の値をセッ トし、 Igrp(n)に Vmax(P) のィ直をセットする。
ステップ S 7 3 3において端末 Bの特徴抽出部 6 3 2は、 Pと nの値を 1だけ インクリメントして、 ステップ S 734に進み、 Tv+(P)または TvO(P)があるか 否かを判定し、 Τν+(Ρ)または ΤνΟ(Ρ)があると判定された場合、 ステップ S 7 3 5に進み、 Tgrpの平均値 Tgrpmと Igrpの平均値 Igrpmを算出する。
このようにして、 使用者 aのマウスのクリック情報と握り圧情報から特徴量 ベタ トル Vcが生成される。
次に図 8 5を参照して、 Vcの感情、 状態、 およびその強度の特定処理につい て説明する。 この処理は、 端末 Bの学習部 6 14において実行される。
ステップ S 7 5 1において、 端末 Bの学習部 6 14は、 端末 Aから送信され てきた環境温度情報 Kの値が基準値 K1以上か否かを判定し、 K1以上であると判 定された場合、 蓄積部 6 1 5に蓄積されている K K1における使用者 aに対応 するマウスのクリック情報と握り圧情報の特徴量べク トルの分布 fvc、 分布の中 心べクトノレ VjU、 分布の標準偏差べク トノレ νσを読み出す。 ステップ S 75 1に おいて、 Κの値が基準値 K1未満であると判定された場合、 端末 Βの学習部 6 1 4は、 蓄積部 6 1 5に蓄積されている Κ<Κ1における使用者 aに対応するマウ スのタリック情報と握り圧情報の特徴量べクトルの分布 fvc、 分布の中心べク ト ル v 、 分布の標準偏差べク トル νσを読み出す。
上述したように感情情報は 36通りあり、 fvc,V ,VCT も感情情報に対応して それぞれ 36通り存在する。 ステップ S 7 5 4において、 端末 Bの学習部 6 1 4は、 変数 Qに 1をセット し、 ステップ S 7 5 5に進み、 ベクトル V (Q)とステップ S 6 6 6 (図 8 1 ) で生成した特徴量べクトル Vcの内積値を算出し、 内積値に対応させて V i (Q)を 記憶する。 そして、 ステップ S 7 5 6に進み、 端末 Bの学習部 6 1 4は、 Qの値 を 1だけィンクリメントし、 ステップ 7 5 7において、 全ての感情情報について 計算したか否か、 すなわち、 3 6種類の中心べク トル Vjt について、 内積値を 計算したか否かを判定し、 全ての感情情報について計算していないと判定された 場合、 ステップ S 7 5 5に戻り、 以降の処理を繰り返し実行する。
全ての感情情報に対応する 3 6種類の中心べク トル V jU について内積値の計 算が終わると、 端末 Bの学習部さ 0 4の中にある図示せぬ記憶部には、 実施の 形態 1の場合と同様に感情情報、 内積値、 中心ベク トル V/ の種類、 内積値の 大きさの順序が含まれたデータが記憶されている。 ステップ S 7 5 8において、 端末 Bの学習部 6 1 4は、 内積値の大きい順にデータをソートする。
ステップ S 7 5 9において、 端末 Bの学習部 6 1 4は、 変数尺に 1をセット し、 S 7 6 0において、 全ての感情情報に関してデータが読み出されたか否かを 判定し、 全ての感情情報に関してデータが読み出されていないと判定された場合、 ステップ S 7 6 1に進み、 ソートしたデータを読み出す。 ステップ S 7 6 2にお いて、 変数 mに 1をセットし、 ステップ S 7 6 3に進み、 V i (R) m- νσ (R) m≤Vcm≤V | (R) m+V σ (R) mの条件を満たしているか否かを判定する。 こ こで、 V i (R) mは、 ベタ トル V〃(R)の ra番目の成分を表し、 V σ (R) m, Veraもそ れぞれ同様にベク トル νσ, Vchの m番目の成分を表す。 マウスのクリック情報 と握り圧情報の特徴量べクトルは上述したように Tclm, Tcim, Tgrpra, Igrpraの 4 個の成分により構成されている。 mの値が 1のとき、 V i (R), νσ (R) , Vcの各 ベク トルの Tclm成分が抽出され、 処理が行われる。
ステップ S 7 6 3において、 V i (R) m— ν σ (R) m≤Vchm≤V i (R) m+V CT (R) mの 条件を満たしていないと判定された場合、 端末 Bの学習部 6 1 4は、 ステップ S 7 6 8に進み、 Rの値を 1だけインクリメントして、 ステップ S 7 6 0に戻り、 以降の処理を繰り返し実行する。 ステップ S 7 6 3において、 Vju (R) m— νσ (R) m≤Vcm≤V^ (R) m+ Y a (R) mの条件を満たしていると判定された場合、 端 末 Bの学習部 6 1 4は、 ステップ S 7 6 4に進み、 mの値を 1だけィンクリメ ントして、 ステップ S 7 6 5に進み、 mの値が 5と等しいか否かを判定し、 mの 値が 5と等しくないと判定された場合、 ステップ S 7 6. 3に戻り、 以降の処理を 繰り返し実行する。
ステップ S 4 9 3において、 mの値が 5と等しいと判定された場合、 すなわち、 V // (R) , V a (R) , Vchの各ベク トルを構成する 4個の成分について、 V i (R) m— ν σ (R) m≤Vcm≤V i (R) m+V σ (R) mの条件を満たしていると判定された場合、 端 末 Bの学習部 6 1 4は、 ステップ S 7 6 6に進み、 Vcは Rに対応する感情情報 Eに属しているものと特定する。
ステップ S 7 6 0において、 全ての感情情報に関してデータを読み出したと判 定された場合、 端末 Bの学習部 6 1 4は、 Vcの感情、 状態、 およびその強度を 特定不能として処理を終了する。
図 8 6は、 使用者 aの各感情情報に対応するマウスのクリック情報と握り圧 情報の特徴量べクトルを示した図である。 この図は、 Tclm軸、 Tcim軸、 Tgrpm 軸、 Igrpra軸からなる 4次元空間として示されている。 図 8 1のステップ S 6 6 6において生成された特徴量べクトル 8 1 1 (Vc)は、 「喜び ·強」 に対応する 特徴量べク トルの分布 8 1 3の中心べクトル 8 1 2 ( μ 1)と近接しており、 上 述した Vcの感情、 状態、 およびその強度特定処理の結果、 「喜び '強」 を示す 特徴量べク トルであると特定される。
このようにして、 特徴量ベクトル Vcから、 使用者 aの感情、 状態、 およびそ の強度が特定される。
次に図 6 1を参照して、 特定結果出力再計算処理について説明する。 この処理 は、 端末 Bの学習部 6 1 4において実行される。 ステップ S 6 9 1において、 端末 Bの学習部 6 1 4は、 特定結果を出力制御部 6 3 3に出力し、 ステップ S 6 9 2において使用者 aの感情情報 Eに対応するマウスのタリック情報と握り 圧情報の特徴量べク トルの分布 fvc、 分布の中心べク トル V i、 分布の標準偏差 ベク トル V C7を再計算し、 蓄積する。 すなわち、 ステップ S 6 6 6 (図 8 1 ) で生成された特徴量ベク トル Vcは、 蓄積部に蓄積されている使用者 aの 「喜 び ·強」 を示すマウスのクリック情報と握り圧情報の特徴量べクトルに加えられ、 あらたに、 fvc、 V i、 および ν σが計算され、 蓄積部 6 1 5に蓄積される。
このようにして、 マウスのクリック情報と握り圧情報から感情、 状態、 および その強度が特定される。 また、 感情、 状態、 およびその強度が特定された特徴量 ベク トルの情報が、 あらたに蓄積される。
ここまで、 端末 Βが、 端末 Αから送信された使用者 aのマウスのクリック情 報と握り圧情報から特徴量ベク トル Vcを生成し、 感情、 状態、 およびその強度 を特定する処理について説明したが、 同様に端末 Bは、 使用者 bについてのマ ウスのクリック情報と握り圧情報から特徴量ベク トルを生成し、 感情、 状態、 お よびその強度を特定することもできる。
また、 端末 Aも同様にして、 使用者 aと使用者 bの感情、 状態、 およびその 強度を特定することができる。
次に、 図 8 8と図 8 9を参照して、 情報出力処理について説明する。 ステップ S 7 8 1において、 システム制御部 6 1 7は、 出力情報が選択されたか否かを判 定し、 選択されたと判定されるまで待機する。 出力情報の選択は、 実施の形態 1 の場合と同様に、 例えば、 端末のディスプレイ上に表示されたメニューを使用者 が選択することによって行われる。 使用者が選択できるメニューは、 「特定結 果」 、 「特徴量に基づく情報」 、 「波形情報」 、 および 「蓄積情報」 の 4種類が める。
ステップ S 7 8 1において、 出力情報が選択されたと判定された場合、 システ ム制御部 6 1 7は、 ステップ S 7 8 2に進み、 特定結果が選択されたか否かを判 定し、 特定結果が選択された判定された場合、 ステップ S 7 8 3において、 特定 結果に対応する 2ビットの選択情報 0 0を出力制御部 6 3 3に送信する。 ステップ S 7 8 4において、 出力制御部 6 3 3は、 感情、 状態、 およびその強 度の特定結果を出力する。 例えば、 端末のディスプレイ上に 「強い喜びを示して いるようです。 」 という文字が出力される。
ステップ S 7 8 2において、 特定結果が選択されていないと判定された場合、 システム制御部 6 1 7は、 ステップ S 7 8 5に進み、 特徴量に基づく情報が選択 されたか否かを判定し、 特徴量に基づく情報が選択されたと判定された場合、 ス テツプ S 7 8 6に進み、 特徴量に基づく情報に対応する 2ビットの選択情報 0 1 を出力制御部 6 3 3に送信する。
ステップ S 7 8 7において、 出力制御部 6 3 3は、 特徴量 (Tgrp, Igrp) を 特徴抽出部 6 3 2から取得し、 ステップ S 7 8 8に進み、 温度呈示部駆動信号を 生成する。 すなわち、 出力のレベルを Igrpとし、 出力 ON時間を Tgrpとして、 図 9 0に示されるような矩形波信号を生成する。 そして、 ステップ S 7 8 9に進 み、 出力制御部 6 3 3は、 温度提示部 6 9 2を駆動させる。
ステップ S 7 8 5において、 特徴量に基づく情報が選択されていないと判定さ れた場合、 システム制御部 6 1 7は、 ステップ S 7 9 0において、 波形情報が選 択されたか否かを判定し、 波形情報が選択されたと判定された場合、 ステップ S 7 9 1において、 波形情報に対応する 2ビットの選択情報 1 0を出力制御部 6 3 3に送信する。 ステップ S 7 9 2において、 出力制御部 6 3 3は、 特徴抽出部 6 3 2からサンプリングされたマウスのクリック情報と握り圧情報を取得し、 波形 信号を生成し、 ステップ S 7 9 3において温度呈示部 6 9 2を駆動させる。
ステップ S 7 9 0において、 波形情報が選択されていないと判定された場合、 システム制御部 6 1 7は、 ステップ S 7 9 4に進み、 蓄積情報が選択されたか否 かを判定し、 蓄積情報が選択されたと判定された場合、 ステップ S 7 9 5に進み、 蓄積情報に対応する 2ビッ トの選択情報 0 1を出力制御部 3 2 4に送信する。 蓄積情報が選択された場合、 端末のディスプレイ上に更にサブメニューが表示 され、 使用者は、 どの蓄積情報を出力するかを選択することができる。 すなわち、 マウスのタリック情報と握り圧情報などの情報の種類 inf、 個人を特定する情報 PID、 感情情報 Eが選択される。 例えば、 inf としてマウスのクリック情報と握 り圧情報、 PIDとして個人 a、 Eとして 「弱い驚き」 などが選択される。
ステップ S 7 9 6において、 システム制御部 6 1 7は、 情報の種類 inf、 個人 を特定する情報 PID、 感情情報 Eが選択されたか否かを判定し、 選択されたと判 定されるまで待機する。
ステップ S 7 9 7において、 システム制御部 6 1 7は、 使用者に選択された情 報に基づいて (inf, PID, E) の情報を生成し、 出力制御部 6 3 3に送信する。 ステップ S 7 9 8において出力制御部 6 3 3は、 (inf, PID, E) に基づいて、 蓄積部 6 1 5からキーボードの振動情報の中心べクトルを取得する。 この場合、 蓄積部に蓄積されている個人 aの 「弱い驚き」 に対応する脈拍情報の特徴量べ タ トルの分布の中心ベク トル V / (Tel, Tci, Tgrp, Igrp) が取得される。
ステップ S 7 9 9において、 出力制御部 6 3 3は、 中心べク トル V に基づ いて、 温度呈示部駆動信号を生成する。 すなわち、 出力のレベルを Igrpとし、 出力 ON時間を Tgrpとし、 出力 OFF時間を Tgrpとして、 図 9 1に示されるよう な矩形波 8 5 1の信号を生成し、 ステップ S 8 0 0において温度呈示部 6 9 2を 駆動信号に基づいて、 3回駆動させる。
ステップ S 7 9 4において、 蓄積情報が選択されていないと判定された場合、 システム制御部 6 1 7は、 ステップ S 8 0 1に進み、 エラー処理を実行して、 処 理を終了する。
このようにして、 使用者は、 マウスのクリック情報と握り圧情報から特定され た感情、 状態、 およびその強度を表示させ、 認識することができる。 また、 温度 呈示部を駆動させることにより、 握り圧情報を体感することができる。
実施の形態 4
図 9 2は本発明の情報処理装置を利用した第 2のコミュニケーシヨンシステム の構成を示す図である。 図 1のシステムと異なり、 端末 1、 端末 2、 および端末 3に代わり、 ゲーム機 8 7 1、 ゲーム機 8 7 2、 およびゲーム機 8 7 3が、 設置 されている。 そしてゲーム機 8 7 1乃至 8 7 3は、 それぞれインターネットなど のネットワーク 8 8 0を経由してサーバ 8 8 1に接続され、 互いに情報通信を行 うように構成されている。
ゲーム機 8 7 1 (ゲーム機 A) 、 ゲーム機 8 7 2 (ゲーム機 B ) 、 ゲーム機 8 7 3 (ゲーム機 C ) には、 図 1の場合と同様に、 それぞれ、 情報の入力を受け付 ける入力部 8 9 1 A乃至 8 9 1 C、 入力された情報を処理する処理部 8 9 3 A乃 至 8 9 3 C、 入力された情報から使用者の感情、 状態、 およびその強度を学習、 特定する学習部 8 9 4 A乃至 8 9 4 C、 学習部によって学習、 特定された情報を 蓄積する蓄積部 8 9 5 A乃至 8 9 5 C、 学習部によって特定された情報、 または 蓄積部に蓄積された情報を出力する出力部 8 9 2 A乃至 8 9 2 C、 情報の送受信 を行う通信部 8 9 6 A乃至 8 9 6 C、 および各部を制御するシステム制御部 8 9
7 A乃至 8 9 7 Cが設けられている。
なお、 ゲーム機 8 7 1 (ゲーム機 A) 乃至ゲーム機 8 7 3 (ゲーム機 C ) の構 成は同一であるため、 それらを構成する入力部 8 9 1 A乃至システム制御部 8 9 7 A、 入力部 8 9 1 B乃至システム制御部 8 9 7 B、 並びに入力部 8 9 1 C乃至 システム制御部 8 9 7 Cは、 それぞれ同一の機能を有している。 以下においては、 それらを個々に区別する必要がない場合には、 入力部 8 9 1乃至システム制御部
8 9 7と、 まとめて表現する。
図 9 3にゲーム機 8 7 1乃至 8 7 3の構成例を示す。 このゲーム機には、 音声 情報、 加速度情報、 およびゲーム機のコントローラ 9 4 1 (図 9 4 ) の握り圧情 報の入力を受け付ける入力部 8 9 1、 入力部 8 9 1から入力された情報を処理す る処理部 8 9 3、 処理部 8 9 3から出力された特徴情報と感情態情報に基づいて、 学習、 特定を行う学習部 8 9 4、 学習部 8 9 4から出力された学習情報、 特定情 報を蓄積する蓄積部 8 9 5、 処理部 8 9 3から出力された出力情報に基づいて、 情報を出力する出力部 8 9 2、 通信を行う通信部 8 9 6、 および各部を制御する システム制御部 8 9 7が設けられている。
処理部 8 9 3には、 入力部 8 9 1から入力された情報から、 加速度情報、 握り 圧情報、 または音声情報を分別する情報弁別部 9 1 1、 加速度情報とコントロー ラ 9 4 1の握り圧情報から特徴情報を抽出する特徴抽出部 9 1 2、 音声情報から 感情情報を抽出する意味抽出部 9 1 3、 および出力部 8 9 2に出力情報を出力す る出力制御部 9 1 4が設けられている。 通信部 8 9 6には、 情報の送信を行う情 報送信部 9 2 1、 情報の受信を行う情報受信部 9 2 2が設けられている。
入力部 8 9 1は、 マイクロホン、 3軸 (相互に垂直な X, Y, Ζ軸) 方向の加 速度を検知する加速度センサ、 使用者がコントローラ 9 4 1を握るときの強度を 検知する握り圧センサにより構成され、 ゲーム機に付属のコントローラ 9 4 1に 配置される。 また、 出力部 8 9 2は、 所定の信号に基づいて、 光を発する光呈示 部、 および、 所定の信号に基づいて振動する振動モータにより構成される振動呈 示部により構成され、 やはりコントローラ 9 4 1に配置される。
図 9 4にコントローラ 9 4 1の構成例を示す。 使用者は、 コントローラ 9 4 1 の所定のボタンを操作することにより、 ゲームを行う。 コントローラ 9 4 1内部 の上部中央には、 3軸加速度センサ 9 6 1が設けられている。 3軸加速度センサ 9 6 1は、 使用者がコントローラ 9 4 1を動かすとき、 X軸方向 (図中紙面と平 行な左右の方向) 、 Υ軸方向 (図中紙面と平行な上下の方向) 、 Ζ軸方向 (図中 紙面と垂直な前後の方向) のそれぞれの加速度を検知する。 コントローラ 9 4 1 の下部中央には、 マイクロホン 9 6 2が設けられており、 使用者が発する音声は、 マイクロホン 9 6 2に入力される。 コントローラ 9 4 1の下部の左右両端には、 握り圧センサ 9 6 3 Lと 9 6 3 Rが設けられており、 使用者がコントローラ 9 4 1を使用するとき、 通常握り圧センサ 9 6 3 Lと 9 6 3 Rが設置された部分が、 それぞれ、 使用者の左手と右手で握られる。
また、 3軸加速度センサ 9 6 1の左右の両端の近傍には、 それぞれ光呈示部 9 6 4 Lと 9 6 4 Rが設けられている。 握り圧センサ 9 6 3 Lおよび 9 6 3 Rとほ ぼ同じ位置の下側に、 それぞれ振動呈示部 9 6 5 Lおよび 9 6 5 Rが設けられて いる。 上述したように、 振動呈示部 9 6 5 Lおよび 9 6 5 Rは、 コントローラ 9 4 1に内蔵される振動モータにより構成される。 使用者 aがもっているゲーム機をゲーム機 Aとし、 使用者 bがもっているゲ 一ム機をゲーム機 Bとして、 使用者 aと使用者 bは、 それぞれのゲーム機を用 いて、 多人数参加型のオンラインゲームに参加することができる。 このオンライ ンゲームにおいて、 参加者は、 同じくゲームに参加している他の参加者と音声に よるコミュニケーションを行うことができる。 例えば、 使用者 aの音声が、 ゲー ム機 Aのコントローラのマイクロホン 9 6 2から入力され、 ゲーム機 Bに送信 され、 ゲーム機 Bが接続されているテレビのスピーカ、 またはゲーム機専用の スピー力などから出力され、 使用者 bに使用者 aが発した音声が伝えられる。 同様に、 使用者 bが発した音声も使用者 aに伝えられ、 使用者 aと使用者 bは音 声によるコミュ-ケーシヨンを行うことができる。
この場合、 図 9 5に示される手順で情報の送受信が行われる。 最初にゲーム機 Aは、 ステップ S 1 0 0 1でサーバ 8 8 1に、 接続要求を送信し、 ステップ S 1 1 0 1でサーバ 8 8 1は、 接続要求を受信する。 サーバ 8 8 1は、 ステップ S 1 1 0 2で接続要求に基づいて、 認証を行う。 ゲーム機 Aから送信される接続要 求には、 使用者 aを特定する、 例えば、 氏名、 ニックネームなどの情報、 およ びゲームに参加するためのパスワードが含まれており、 サーバ 8 8 1は、 これら の情報に基づいて、 使用者 aがゲームに参加する資格があるか否かを判定 (認 証) し、 使用者 aがゲームに参加する資格があると判定された場合、 ステップ 1 1 0 3でゲーム機 Aに接続要求受付を送信する。 ゲーム機 Aは、 ステップ S 1 0 0 2で接続要求受付を受信し、 ステップ S 1 0 0 3でゲーム機 Aにおいてゲ ームが開始される。
一方ゲーム機 Bとサーバ 8 8 1の間においても同様の手順で情報の送受信が 行われ (ステップ S 1 2 0 1 (ステップ S 1 0 0 1に対応) , S 1 1 04 (ステ ップ S 1 1 0 1に対応) , S 1 1 0 5 (ステップ S 1 1 0 2に対応) , S 1 1 0 6 (ステップ S 1 1 0 3に対応) , S 1 2 0 2 (ステップ S 1 00 3に対応) ) 、 ステップ S 1 2 0 3で、 ゲーム機 Bにおいてもゲームが開始される。 ステップ S 1 00 4で、 ゲーム機 Aから、 サーバ 8 8 1にゲーム機 Bへの接 続要求が送信されると、 ステップ S 1 1 0 7でサーバ 8 8 1は、 ゲーム機 Bへ の接続要求を受信する。 そして、 サーバ 8 8 1は、 ステップ S 1 1 0 9でゲーム 機 Aに接続要求受付を送信し、 これがステップ S 1 0 0 5でゲーム機 Aに受信 される。 サーバ 8 8 1は、 ステップ S 1 1 0 8でゲーム機 B の呼び出しを行い、 これがステップ S 1 20 4でゲーム機 Bに受信される。 サーバ 8 8 1は、 ステ ップ S 1 2 0 5でゲーム機 Bから送信された応答を、 S 1 1 1 0で受信し、 ス テツプ S 2 1 1 1でゲーム機 Aと Bの接続を開始する。 サーバ 8 8 1は、 ステ ップ S 1 1 1 2でゲーム機 Aに接続確認を送信し、 これは、 ステップ S 1 0 0 6でゲーム機 Aに受信される。
そして、 ゲーム機 Aからサーバ 8 8 1を介して、 ゲーム機 Bに音声情報が送 信され、 ゲーム機 Bからサーバ 8 8 1を介して、 ゲーム機 Aに音声情報が送信 される (ステップ S 1 0 0 7, S 1 1 1 3 , S 1 1 1 4 , S 1 20 6 , S 1 2 0 7 , S 1 1 1 5 , S 1 1 1 6 , S 1 0 0 8) 。
次にゲーム機 Aは、 ステップ S 1 ◦ 0 9で、 加速度情報と握り圧情報の送受 信の初期設定を行い、 ステップ S 1 0 1 0で、 サーバ 8 8 1に加速度 '握り圧情 報送受信要求を送信する。 これは、 ステップ S 1 1 1 7でサーバ 8 8 1に受信さ れる。 サーバ 8 8 1は、 ステップ S 1 1 1 8で、 ゲーム機 Bに加速度 '握り圧 情報送受信要求を送信する。 このとき、 実施の形態 1の場合と同様に、 ゲーム機 Aから図 1 1に示される送信設定情報と受信設定情報が送信される。
ステップ S 1 20 8で、 サーバ 8 8 1から加速度 ·握り圧情報送受信要求を受 信したゲーム機 Bは、 ステップ S 1 2 0 9で加速度情報と握り圧情報の送受信 設定の変更を行い、 ステップ S 1 2 1 0でサーバ 8 8 1に応答を送信する。 ステ ップ S 1 1 2 0でゲ^ "ム機 Bからの応答を受信すると、 サーバ 8 8 1は、 ステ ップ S 1 1 2 1でゲーム機 Aと Bの加速度 '握り圧情報送受信を開始する。 サ ーバ 8 8 1は、 ステップ S 1 1 2 2でゲーム機 A に接続確認を送信し、 これが、 ステップ S 1 0 1 2でゲーム機 Aに受信される。 これにより、 ゲーム機 Aにお いて、 ゲーム機 Bから使用者 bに関する加速度情報と握り圧情報が送信されて くることが認識され、 ゲーム機 Bにおいて、 ゲーム機 Aから使用者 aに関する 加速度情報と握り圧情報が送信されてくることが認識される。
そして、 サーバ 8 8 1を介して、 ゲーム機 Aからゲーム機 Bに、 加速度 '握 り圧情報が送信され (ステップ S 1 0 1 3 , S 1 1 2 3 , S 1 1 24, S 1 2 1 1) 、 ゲーム機 Bにおいて、 ステップ S 1 1 1 2で、 特徴情報蓄積処理が行わ れる。 同様に、 サーバ 8 8 1を介して、 ゲーム機 Bからゲーム機 Aに、 加速 度 -握り圧情報が送信され (ステップ S 1 2 1 3 , S 1 1 2 5 , S 1 1 2 6 , S 1 0 1 4) 、 ゲーム機 Aにおいて、 ステップ S 1 0 1 5で、 特徴情報蓄積処理 が行われる。 なお、 特徴情報蓄積処理については、 図 9 7を参照して後述する。 ステップ S 1 0 1 6で、 ゲーム機 Aからサーバ 8 8 1へゲーム機 Bへの接続 終了要求が送信されると、 ステップ S 1 1 2 7でサーバ 8 8 1によりこれが受信 され、 さらに、 ステップ S 1 1 2 8でサーバ 8 8 1からゲーム機 Bにこれが送 信される。 ステップ S 1 2 1 4で接続終了要求を受信したゲーム機 Bは、 ステ ップ S 1 2 1 5でそれに応答し、 ステップ S 1 1 3 0で、 サーバ 8 8 1に受信さ れる。 この結果、 通信は終了する。 同様に、 ステップ S 1 1 2 9でサーバ 8 8 1 から接続終了要求受付が送信され、 これがゲーム機 Aにおいてステップ S 1 1 0 9で受信される。
このようにして、 サーバ 8 8 1を介して、 ゲーム機 Aとゲーム機 Bの間で通 信が行われ、 加速度情報と握り圧情報が蓄積される。 加速度情報と握り圧情報が 充分に蓄積された後、 ゲーム機 Aとゲーム機 Bにおいて、 図 1 1 4を参照して 後述する感情情報特定処理が行われる。 この場合、 図 9 6に示されるように情報 の送受信が行われる。
すなわち、 図 9 6のゲーム機 Aにおける、 ステップ S 1 3 0 1乃至 S 1 3 1 7の処理は、 図 9 5のゲ ム機 Aにおける、 ステップ S I O O 1乃至 1 0 1 7 の処理と基本的に同様の処理であるが、 ステップ S 1 3 1 5において、 ゲーム機 Bから送信される加速度情報と握り圧情報に基づいて、 感情情報特定処理が行わ れる。 また、 図 9 6のゲーム機 Bにおける、 ステップ S 1 5 0 1乃至 S 1 5 1 5の処理は、 図 9 5のゲーム機 Bにおける、 ステップ S 1 2 0 1乃至 1 2 1 5 の処理と基本的に同様の処理であるが、 ステップ S 1 5 1 2において、 ゲーム機 Aから送信される加速度情報と握り圧情報に基づいて、 感情情報特定処理が行わ れる。
図 9 6のサーバ 8 8 1における、 ステップ S 1 4 0 1乃至 S 1 4 3 0の処理は、 図 9 5のサーバ 8 8 1における、 ステップ S 1 1 0 1乃至 1 1 3 0の処理と同様 の処理なのでその説明は省略する。
次に図 9 7を参照して、 ゲーム機 Aおよびゲーム機 Bにおける特徴情報蓄積 処理 (図 9 5のステップ S 1 0 1 5, S 1 2 1 2における処理) について説明す る。 ゲーム機 Aは、 ゲーム機 Aに付属するコントローラ 9 4 1から出力される 使用者 aに関する加速度情報と握り圧情報に基づいて、 特徴情報蓄積処理を行 うこともできるし、 ゲーム機 Bから送信される使用者 bに関する加速度情報、 握り圧情報に基づいて、 特徴情報蓄積処理を行うことも可能である。
最初にゲーム機 Aが使用者 aに関する加速度情報と握り圧情報に基づいて、 特情報蓄積処理を行う場合について説明する。 ゲーム機 Aのシステム制御部 8 9 7は、 ステップ S 1 6 2 1において、 ゲーム機 Aの使用者 aを特定する情報 (例えば、 氏名、 ニックネームなど) PIDを取得し、 ステップ S 1 6 2 2におい て、 システム制御部 8 9 7は、 情報弁別部 9 1 1に、 使用者 aの音声情報の入力 があったか否かを判定させ、 入力されたと判定されるまで待機する。
ステップ S 1 6 2 2において、 音声情報の入力があつたと判定された場合、 ス テツプ S 1 6 2 3に進み、 システム制御部 8 9 7は、 特徴抽出部 9 1 2に、 使用 者 aに関する加速度情報と握り圧情報のサンプリング処理を開始させる。 そし て、 ステップ S 1 6 2 4に進み、 システム制御部 8 9 7は、 意味抽出部 9 1 3に 入力された音声情報の音声認識を行わせる。
ステップ S 1 6 2 5において、 システム制御部 8 9 7は、 認識された音声の中 に感情、 状態およびその強度を表す語句があるか否かを判定し、 感情、 状態およ びその強度を表す語句がないと判定された場合、 ステップ S 1 6 2 2に戻り、 そ れ以降の処理を繰り返し実行する。 実施の形態 1で上述したように、 感情と状態 を表す語句は、 図 2 3に示されるようなものであり、 強度を示す語句は図 2 4に 示されるようなものである。
ステップ S 1 6 2 5において、 感情、 状態およびその強度を示す語句があると 判定された場合、 システム制御部 8 9 7は、 ステップ S 1 6 2 6において、 認識 された語句の主語は使用者か否か、 すなわち、 認識された語句が、 使用者 aの 感情、 状態およびその強度を表す語句であるか否かを判定し、 主語は使用者では ないと判定された場合、 ステップ S 1 6 2 2に戻り、 それ以降の処理を繰り返し 実行する。
ステップ S 1 6 2 6において、 主語は使用者であると判定された場合、 システ ム制御部 8 9 7は、 ステップ S 1 6 2 7において、 使用者 aの音声が 1フレー ズ分入力されたか否かを判定し、 1フレーズ分入力されたと判定されるまで待機 する。 ステップ S 1 6 2 7において、 1フレーズ分入力されたと判定された場合、 システム制御部 8 9 7は、 ステップ S 1 6 2 8に進み、 特徴抽出部 9 1 2に、 カロ 速度情報と握り圧情報のサンプリング処理を終了させる。
そして、 ステップ S 1 6 2 9に進み、 システム制御部 8 9 7は、 意味抽出部 9 1 3に、 感情情報 Eを抽出させる。
例えば、 使用者 aが 「びっく りした」 と発話した場合、 「びっく り」 という 語句に対応する感情、 状態は驚きであり、 その他特に形容詞 (例えば、 「とて も」 、 「少し」 など) がないことからその強度は中であると認識され、 感情情報 Eとして、 「中の驚き J が抽出される。
ステップ S 1 6 3 0において、 システム制御部 8 9 7は、 特徴抽出部 9 1 2に、 使用者 aに関する加速度情報と握り圧情報に基づいて、 特徴べクトル Vcの生成 処理を実行させ、 ステップ S 1 6 3 1に進み、 情報 PIDと感情情報 Eに対応す る加速度情報と握り圧情報を蓄積部 8 9 5から読み出す。 この場合、 使用者 a の中の驚きに対応する加速度情報と握り圧情報の特徴べクトルが読み出される。 そして、 ステップ S 1 6 3 2に進み、 システム制御部 8 9 7は、 学習部 8 9 4 に、 読み出された特徴べクトルに新たに生成された特徴べクトル Vcを加えて、 ベタトルの分布 fvc、 分布の中心べクトル V 、 標準偏差べク トノレ ν σを再計算 させ、 ステップ S 1 6 3 3において、 再計算した結果を蓄積部 8 9 5に記憶する。 このようにして、 加速度情報と握り圧情報から使用者 aの中の驚きに対応する 特徴べクトルが生成され、 ベタ トルの分布、 分布の中心べクトル、 および標準偏 差べク トルが再計算され、 蓄積される。
次に図 9 9を参照して、 加速度情報と握り圧情報の特徴べク トル Vcの生成処 理の詳細について説明する。 この処理は、 特徴抽出部 9 1 2で行われる。 ステツ プ S 1 6 5 1において、 特徴抽出部 9 1 2は、 図 1 0 0と図 1 0 1を参照して後 述する加速度情報の特徴量算出処理を行う。 これにより、 特徴ベク トル Vcを構 成する成分のうち、 第 1番目乃至第 1 2番目の成分
(Acc+ (1) , Acc+ (2), Acc+ (3), Tac+ (l) , Tac+ (2), Tac+ (3) , Acc_ (1), Acc -
(2) , Acc- (3) , Tac- ( 1) , Tac- (2) , Tac- (3) ) が算出される。 ステップ S 1 6 5 2 において、 特徴抽出部 9 1 2は、 図 1 0 4と図 1 0 5を参照して後述する握り圧 情報の特徴量算出処理を行う。 これにより、 特徴ベク トル Vcを構成する成分の うち、 第 1 3番目乃至第 2 0番目の成分
(Igr_R(l), I gr_R (2) , Tgr_R(l) , Tgr_R (2),
Igr一 L (1) , Igr_L (2) , Tgr一 L (1) , Tgr_L (2) ) が算出される。
そして、 ステップ S 1 6 5 3において、 特徴抽出部 9 1 2は、 特徴べクトル
Vc (Acc+ (1) , Acc+ (2) , Acc+ (3), Tac+ (1) , Tac+ (2), Tac+ (3) , Acc -(1) , Acc -
(2) , Acc- (3), Tac— ( 1) , Tac— (2), Tac— (3),
Igr一 R (1) , Igr一 R (2), Tgr一 R (1) , Tgr_R (2),
Igr_L (1) , Igr_L (2) , Tgr_L (1) , Tgr_L (2) ) を生成する。
このようにして、 加速度情報と握り圧情報から、 使用者 aの中の驚きに対応 する特徴べクトル Vcが生成される。 次に、 図 1 0 0と図 1 0 1を参照して、 図 9 9のステップ S 8 5 1の加速度情 報の特徴量算出処理について説明する。 ステップ S 1 6 7 1において、 特徴抽出 部 9 1 2は、 サンプリングされた加速度情報を読み込み、 その後、 実施の形態 1 の場合と同様に、 ステップ S 1 6 7 2において、 図 1 6の極性判定処理を行い、 ステップ S 1 6 7 3に進み、 図 1 7の TV出力処理を行い、 ステップ S 1 6 74 において、 図 1 8の Vmin, Vmax判定処理を行う。
図 1 0 2は、 コントローラ 94 1の 3軸加速度センサ 9 6 1により、 出力され る加速度情報の波形の例を示す図である。 3軸加速度センサ 9 6 1は、 上述した ように X軸方向の加速度、 Y軸方向の加速度、 および Z軸方向の加速度を検知す る。 図 1 0 2に示される加速度情報は、 縦軸に X軸方向、 Y軸方向、 および Z軸 方向の加速度の和が示され、 横軸に時間が示されている。 この波形をサンプリン グし、 ステップ S 1 6 7 2の極性判定処理、 ステップ S 1 6 74の TV出力処理 を行うと、 Tv+、 ΤνΟ、 Τν -、 ΤνΟ、 Τν+. . . のような出力が得られる。
ここで、 時間 Τν+は、 コントローラに対して、 正方向の加速度が生じている時 間を示すものであり、 時間 Τν-は、 コントローラに対して、 負方向の加速度が生 じている時間を示すものであり、 時間 ΤνΟは、 コントローラに対する加速度が ほぼゼ口となる時間を示すものである。
さらに、 ステップ S 1 6 7 4の Vmin, Vmax判定処理が行われると、 時間 Tv+ に対応する出力値 Vmaxと時間 Tv -に対応する出力値 Vminが得られる。 この結 果、 図 1 0 3に示されるような波形の情報が得られる。
図 1 0 1のステップ S 1 6 7 5において、 特徴抽出部 9 1 2は、 時間の早い順 にソートされている出力値 Vmax (P)を、 値の大きい順にソートして、 出力値 Vmax(l), Vmax (2) N Vmax(3)を抽出し、 ステップ S 1 6 7 6において、 出力値 Vmax(l) Vmax (2)、 Vmax (3)に対応する時間 Tv+ (1)、 Τν+(2)、 Τν+(3)を抽出す る。
すなわち、 図 1 0 3に示される正方向の出力値をもつ 3つの矩形波の中で出力 値の最も大きいもの (図中、 左側から 3番目の矩形波) が選択され、 その出力値 が Vmax(l)とされ、 その時間が Tv+(1)とされる。 同様に、 2番目に出力値の大 きい矩形波の出力値が Vmax(2)、 その時間が Tv+ (2)とされ、 3番目に出力値の 大きい矩形波の出力値が Vmax(3)、 その時間が Tv+(3)とされる。 図 1 0 3にお いては、 正方向の出力値をもつ矩形波が 3つある場合を例として説明したが、 正 方向の出力値をもつ矩形波が 2つしかない場合は、 Vniax(3)と Tv+(3)の値は 0 とされる。
図 1 0 1に戻って、 ステップ S 1 6 7 7において、 特徴抽出部 9 1 2は、 特徴 ベタトル Vcを構成する第 1番目乃至第 6番目の成分
Acc+ (1), Acc+ (2), Acc+ (3) , Tac+(l), Tac+ (2), Tac+ (3)にそれぞれ、 Vmax(l)、 Vmax(2)、 Vmax(3)、 Τν+(1)、 Τν+(2)、 Τν+ (3)の値をセットする。
ステップ S 1 6 7 8において、 特徴抽出部 9 1 2は、 時間の早い順にソートさ れている出力値 Vtnin(P)を、 値の小さい順にソートして、 出力値 Vmin(l)、 Vmin(2)、 Vmin(3)を抽出し、 ステップ S 1 6 7 9において、 出力値 Vmin(l)、 Vmin(2)、 Vmin(3)に対応する時間 Tv- (1)、 Τν -(2)、 Τν -(3)を抽出する。
すなわち、 図 1 0 3に示される負方向の出力値をもつ 3つの矩形波の中で出力 値の最も小さいもの (図中、 左側の矩形波) が選択され、 その出力値が Vmin(l) とされ、 その時間が Tv_(l)とされる。 同様に、 2番目に出力値の小さい矩形波 の出力値が Vtnin(2)、 その時間が Tv_ (2)とされ、 3番目に出力値の小さい矩形 波の出力値が Vmin(3)、 その時間が Tv_(3)とされる。 図 1 0 3においては、 負 方向の出力値をもつ矩形波が 3つある場合を例として説明したが、 負方向の出力 値をもつ矩形波が 2つしかない場合は、 Vmin(3)と Tv -(3)の値は 0とされる。 図 1 0 1に戻って、 ステップ S 1 6 8 0において、 特徴抽出部 9 1 2は、 特徴 ベタトル Vcを構成する第 7番目乃至第 1 2番目の成分 Acc- (l),Acc- (2),Acc - (3), Tac- (1), Tac- (2), Tac- (3)にそれぞれ、 Vmin(l)、 Vmin(2)、 Vmin(3)、 Tv_ (1)、 Tv- (2)、 Tv- (3)の値をセットする。
このようにして、 加速度情報の特徴量が算出される。 次に図 1 04と図 1 0 5を参照して、 図 9 9のステップ S 1 6 5 2の握り圧情 報の特徴量算出処理について説明する。 握り圧情報は、 コントローラ 9 4 1の右 側の握り圧センサ 9 6 3 Rと左側の握り圧センサ 9 6 3 Lにより出力される。 握 り圧情報の特徴量算出処理は、 握り圧センサ 9 6 3 Rにより出力された握り圧情 報と、 握り圧センサ 9 6 3 Lにより出力された握り圧情報のそれぞれに対して行 われる。
ステップ S 1 7 0 1において、 特徴抽出部 9 1 2は、 サンプリングされた握り 圧情報を読み込み、 その後、 実施の形態 1の場合と同様に、 ステップ S 1 7 0 2 において、 図 1 6の極性判定処理を行い、 ステップ S 1 7 0 3に進み、 図 1 7の TV出力処理を行い、 ステップ S 1 7 04において、 図 1 8の Vmin, Vmax判定処 理を行う。 図 1 0 6は、 握り圧センサ 9 6 3 Rにより出力された握り圧情報の波 形を示す図であり、 図 1 0 7は、 握り圧センサ 9 6 3 Lにより出力された握り圧 情報の波形を示す図である。 図 1 0 6および図 1 0 7は、 それぞれ縦軸に握り圧 の出力値が示され、 横軸に時間が示されている。
この波形をサンプリングし、 ステップ S 1 7 0 2の極性判定処理、 ステップ S 1 7 0 3の TV出力処理を行うと、 Tv+、 ΤνΟ、 Τν+、 ΤνΟ. . · のような出力を得 る。
ここで、 時間 Τν+は、 使用者 aがコントローラを所定の強度以上の強度で握つ ている時間を示すものであり、 時間 TvOは、 使用者 aがコントローラを所定の 強度未満の強度で握っている時間を示すものである。
さらに、 ステップ S 1 704の Vtnin, Vmax判定処理が行われると、 時間 Tv+ に対応する出力値 Vmaxと時間 Tv -に対応する出力値 Vminが得られる。 この結 果、 図 1 0 6に示される握り圧情報から図 1 0 8に示されるような波形の情報が 得られ、 図 1 0 7に示される握り圧情報から図 1 0 9に示されるような波形の情 報が得られる。
図 1 0 5のステップ S 1 7 0 5において、 特徴抽出部 9 1 2は、 右側の握り圧 センサ 9 6 3 Rの出力について、 時間の早い順にソートされている Vmax(P)を、 値の大きい順にソートして、 Vmax(l)、 Vmax(2)を抽出し、 ステップ S 1 7 0 6 において、 Vmax(l) Vmax(2)に対応する Tv+(1)、 Τν+(2)を抽出する。
すなわち、 図 1 0 8に示される正方向の出力値をもつ 2つの矩形波の中で出力 値の最も大きいもの (図中、 左の矩形波) が選択され、 その出力値が Vmax(l)と され、 その時間が Tv+(1)とされる。 同様に、 2番目に出力値の大きい矩形波の 出力値が Vmax(2)、 その時間が Tv+(2)とされる。 図 1 0 3においては、 矩形波 が 2つある場合を例として説明したが、 矩形波が 1つしかない場合は、 Vmax(2) と Tv+(2)の値は 0とされる。
図 1 0 5に戻って、 ステップ S 1 7 0 7において、 特徴抽出部 9 1 2は、 特徴 ベク トル Vcを構成する第 1 3番目乃至第 1 6番目の成分
Igr— R(l), Igr— R(2), Tgr— R(l), Tgr— R(2)にそれぞれ、 Vmax(l), Vmax(2) Tv+(1)、 Tv+(2)の値をセットする。
ステップ S 1 7 0 8において、 特徴抽出部 9 1 2は、 右側の握り圧センサ 9 6 3 Rの出力について、 時間の早い順にソートされている Vmax(P)を、 値の大きい 順にソートして、 Vraax(l)、 Vmax(2)を抽出し、 ステップ S 1 7 0 9において、 Vmax(l)N Vmax(2)に対応する Tv+(1)、 Τν+(2)を抽出する。
そして、 ステップ S 1 7 1 0において、 特徴抽出部 9 1 2は、 特徴べク トル Vcを構成する第 1 7番目乃至第 20番目の成分
Igr— L(l), Igr— L(2),Tgr_L(l),Tgr_L(2)にそれぞれ、 Vmax(l)、 Vmax(2)、 Tv+(1)、 Tv+(2)の値をセットする。
このようにして、 握り圧情報の特徴量が算出される。
ここまで、 ゲーム機 Αが、 使用者 aに関する加速度情報と握り圧情報に基づ いて、 特徴情報蓄積処理を行う場合について説明したが、 ゲーム機 Aは、 ゲー ム機 Bから送信される使用者 bに関する加速度情報と握り圧情報に基づいて、 特徴情報蓄積処理を行うこともできる。 この場合、 使用者 bに関する加速度情 報と握り圧情報について、 ゲーム機 Bの特徴抽出部 9 1 2においてサンプリン グ処理が行われ、 サンプリングされた値に、 出力制御部 9 1 4と情報送信部 9 2 1において、 所定のヘッダが付加され、 ゲーム機 Aに送信される。 一方で使用 者 bが発した音声は、 ゲーム機 Aに送信され、 ゲーム機 Aの意味抽出部 9 1 3 において、 使用者 bの音声情報から感情情報の抽出が行われる。
そして、 ゲーム機 Aは、 ゲーム機 Bから送信されてきた、 使用者 bに関する 加速度情報と握り圧情報にもとづいて、 図 9 7と図 9 8を参照して上述した特徴 情報蓄積処理を行う。 例えば、 使用者 bが、 「これは焦る」 と発話した場合、 ゲーム機 Aにおいて、 特徴情報蓄積処理が行われ、 図 9 7のステップ S 1 6 2 9で感情情報として、 「中の不安定」 が抽出される。 一方ゲーム機 Bでは、 使 用者 が 「これは焦る」 と発話したとき、 図 1 1 0に示される波形の信号がグー ム機 Bのコントローラ 9 4 1の 3軸加速度センサ 9 6 1により検出され、 図 1 1 1に示される波形の信号がゲーム機 Bのコントローラ 9 4 1の握り圧センサ 9 6 3 Rにより検出され、 図 1 1 2に示される波形の信号がゲーム機 Bのコン トローラ 9 4 1の握り圧センサ 9 6 3 Lにより検出される。
図 1 1 0乃至図 1 1 2に示される波形の信号は、 ゲーム機 Bの特徴抽出部 9 1 2により、 それぞれ期間 Tclkの間隔でサンプリングされる。 そして、 加速度 情報として、 図 1 1 0の信号がサンプリングされた値 Vs l, Vs2, Vs3 , · · · Vs nが、 使用者 bの加速度情報であること示すヘッダが付加されて、 ゲーム機 A に送信される。 同様に握り圧情報として、 図 1 1 1の信号がサンプリングされた 値 VsRl, VsR2, VsR3, ■ ■ · VsRnが、 使用者 bの右の握り圧情報であること示 すヘッダが付加されて、 ゲーム機 A送信され、 図 1 1 2の信号がサンプリング された値 VsL l , VsL2 , VsL3 , · · ■ VsLnが、 使用者 bの左の握り圧情報である こと示すヘッダが付加されて、 ゲーム機 Aに送信される。 ゲーム機 Aは、 ゲー ム機 Bから送信された加速度情報と握り圧情報にもとづいて、 図 9 8のステツ プ S 1 6 3 0の特徴べク トル Vcの生成処理において、 使用者 Bの中の不安定に 対応する特徴べク トルを生成し、 蓄積する。
同様にゲーム機 Bは、 使用者 bの加速度情報と握り圧情報から特徴べクトル を生成し、 蓄積すると同時に、 ゲーム機 Aから送信される使用者 aの加速度情 報と握り圧情報から特徴ベク トルを生成し、 蓄積する。 その結果、 ゲーム機 A とゲーム機 Bの蓄積部 8 9 5には、 図 1 1 3に示されるように、 加速度情報と 握り圧情報に関する学習結果 9 8 1がそれぞれ、 使用者 aの情報 9 9 1と使用 者 bの情報 9 9 2に分けて蓄積される。
上述した特徴情報蓄積処理を繰り返し行い、 加速度情報と握り圧情報が充分蓄 積された後は、 加速度情報と握り圧情報をもとに、 使用者の感情、 状態、 および その強度を特定することができる。
次に図 1 1 4を参照して、 ゲーム機 Bによる使用者 aの感情状態特定処理に ついて説明する。 ステップ S 1 7 3 1において、 ゲーム機 Bのシステム制御部 8 9 7は、 通信相手であるゲーム機 Aの使用者 aを特定する情報 PIDを取得す る。 ステップ S 1 7 3 2において、 ゲーム機 Bのシステム制御部 8 9 7は、 情 報弁別部 9 1 1に、 使用者 aに関する加速度情報または握り圧情報の少なくと も一方の出力値が閾値を超えたか否かを判定させ、 閾値を超えたと判定されるま で待機する。 閾値は、 プログラムなどにより予め設定しておいてもよいし、 使用 者がその都度設定するようにしてもよい。
ステップ S 1 7 3 2において、 加速度情報または握り圧情報の少なくとも一方 の出力値が閾値を超えたと判定された場合、 ステップ S 1 7 3 3に進み、 システ ム制御部 8 9 7は、 特徴抽出部 9 1 2の図示せぬ記憶部に、 使用者 aに関する加 速度情報と握り圧情報の出力値を記憶させる。 そして、 ステップ S 1 7 3 4に進 み、 システム制御部 8 9 7は、 情報弁別部 9 1 1に使用者 aに関する加速度情報 または握り圧情報の出力値が所定の時間 (例えば、 1 0秒) 以上閾値以下になつ たか否かを判定させ、 所定の時間以上閾値以下になっていないと判定された場合、 ステップ S 1 7 3 3に戻る。
ステップ S 9 3 4において、 使用者 aに関する加速度情報または握り圧情報の 出力値が所定の時間以上閾値以下になったと判定された場合、 ステップ S 1 7 3 5に進み、 システム制御部 8 9 7は、 特徴抽出部 9 1 2に図 1 1 5を参照して後 述する特徴ベク トル Vcag生成処理を実行させる。 これにより、 使用者 aに関す る加速度情報と握り圧情報に基づいて、 特徴ベク トル Vcagが生成される。 ステ ップ S 1 7 3 6において、 システム制御部 8 9 7は、 学習部 8 94に、 図 1 20 を参照して後述する Vcagの感情情報特定処理を実行させる。 これにより、 特徴 ベタ トル Vcag に対応する感情情報が特定される。 ステップ S 1 7 3 7において、 システム制御部 8 9 7は、 学習部 8 9 4に、 図 1 2 2を参照して後述する特定結 果出力再計算処理を実行させる。
次に図 1 1 5を参照して、 Vcag生成処理について説明する。 この処理はゲー ム機 B の特徴抽出部 9 1 2において実行される。 ステップ S 1 7 5 1において、 特徴抽出部 9 1 2は、 加速度情報の特徴量算出処理 (図 1 0 0と図 1 0 1に示し た処理と同様の処理なので、 その説明は省略する) を行い、 ステップ S 1 7 5 2 において、 特徴抽出部 9 1 2は、 握り圧情報算出処理 (図 1 04と図 1 0 5に示 した処理と同様の処理なので、 その説明は省略する) を実行する。 そして、 ステ ップ S 1 7 5 3に進み、 特徴抽出部 9 1 2は、 特徴べク トル Vcag
(Acc+ (1), Acc+ (2), Acc+ (3), Tac+ (1) , Tac+ (2) , Tac+ (3) , Acc - (1), Acc - (2), Acc-(3), Tac-(l), Tac-(2), Tac-(3),
Igr_R(l), Igr_R(2), Tgr_R(l), Tgr_R(2),
Igr_L (1) , Igr_L (2) , Tgr_L (1) , Tgr_L (2) ) を生成する。
このようにして、 使用者 aに関する加速度情報と握り圧情報から特徴べク ト ノレ Vcagが生成される。
次に図 1 1 6を参照して、 Vcagの感情情報特定処理について説明する。 この 処理は、 ゲーム機 Bの学習部 8 9 4において実行される。
ステップ S 1 8 3 1において、 学習部 8 94は、 蓄積部 8 9 5に蓄積されてい る使用者 aに関する加速度情報と握り圧情報の特徴べク トルの分布 fVC、 分布の 中心べク トル V 、 分布の標準偏差べクトル νσを読み出す。
上述したように感情情報は 3 6通りあり、 fvc,V /,VCT も感情情報に対応して それぞれ 3 6通り存在する。 ステップ S 1 8 3 2において、 学習部 8 9 4は、 変数 Qに 1をセットする。 ここで変数 Qは、 1から 3 6までの整数とされ、 3 6種類の感情情報に対応する。 ステップ S 1 8 3 3において、 学習部 8 9 4は、 ベク トル V〃(Q)とステップ S 1 7 3 5 (図 1 1 4 ) で生成した特徴べク トル Vcagの内積値を算出し、 内積値 に対応させて V〃(Q)を記憶する。 そして、 ステップ S 1 8 3 4に進み、 学習部 8 9 4は、 Qの値を 1だけィンクリメントし、 ステップ S 1 8 3 5において、 全 ての感情情報について計算したか否か、 すなわち、 3 6種類の中心べク トル V〃 について、 内積値を計算したか否かを判定し、 全ての感情情報について計算して いないと判定された場合、 ステップ S 1 8 3 3に戻り、 以降の処理を繰り返し実 行する。
全ての感情情報に対応する 3 6種類の中心べク トル V について内積値の計 算が終わると、 学習部 8 9 4の中にある図示せぬ記憶部には、 実施の形態 1の場 合と同様に感情情報、 内積値、 中心べクトル V の種類、 内積値の大きさの順 序が含まれたデータが記憶されている。 ステップ S 1 8 3 6において、 学習部 8 9 4は、 内積値の大きい順にデータをソートする。 このとき、 内積値の大きさの 順番が変数 Rで表され、 変数 Rの値は 1から 3 6までの整数となる。
ステップ S 1 8 3 7において、 学習部 8 9 4は、 変数 に 1をセットし、 S 1 8 3 8において、 全ての感情情報に関してデータが読み出されたか否かを判定し、 全ての感情情報に関してデータが読み出されていないと判定された場合、 ステツ プ S 1 8 3 9に進み、 ステップ S 1 8 3 6の処理によりソートされたデータを順 番に読み出す。 例えば、 ステップ S 1 8 3 3で 3 6種類の感情情報に対応する中 心べク トルと特徴べクトル Vcagの内積値が算出され、 それらの中心べクトルの 中で、 特徴べク トル Vcagとの内積値が最も大きくなる中心べクトルが、 使用者 aの感情情報 「活性 ·強」 に対応する特徴べクトルの中心べク トノレ V i 3 0であ つた場合、 Rの値が 1のとき中心べクトル V 3 0と、 使用者 aの感情情報 「活 性 -強」 に対応する特徴べク トルの標準偏差べク トル ν σ 3 0が読み出される。 ステップ S 1 8 4 0において、 変数 mに 1をセットし、 ステップ S 1 84 1に 進み、 V〃 (R)ra-Va (R)m≤Vcagm≤V/ (R)m+Va (R)mの条件を満たしている力 否かを判定する。 ここで、 V (R)mは、 ベクトル V (R)の tn番目の成分を表し、 νσ (R)m, Vcagmもそれぞれ同様にベクトル νσ, Vcagの m番目の成分を表す。 加速度情報と握り圧情報の特徴べクトルは上述したように
Acc+ (1), Acc+ (2), Acc+ (3), Tac+(l) , Tac+ (2), Tac+ (3), Acc- (1) , Acc -(2), Acc_ (3),Tac-(l),Tac-(2),Tac-
(3), Igr_R (1), Igr一 R (2), Tgr一 R (1), Tgr_R (2), Igr_L (1), Igr_L (2) , Tgr一 L (1) , T gr_L (2)の 2 0個の成分により構成されている。 mの値が 1のとき、 V (R), νσ (R), Vcagの各ベクトルの成分 Acc+(1)が抽出され、 処理が行われる。
ステップ S 1 8 4 1において、 V (R)m-Va (R) ra≤ Vcagm≤V i (R)m+
VCT (R)mの条件を満たしていないと判定された場合、 学習部 8 94は、 ステップ S 1 8 4 6に進み、 Rの値を 1だけインクリメントして、 ステップ S 1 8 3 8に 戻り、 以降の処理を繰り返し実行する。 ステップ S 1 8 4 1において、 V (R)m -νσ (R)m≤Vchm≤V i (R)m + Va (R)m の条件を満たしていると判定された場合、 学習部 8 9 4は、 ステップ S 1 8 4 2に進み、 mの値を 1だけィンクリメントし て、 ステップ S 1 8 4 3に進み、 mの値が 2 1と等しいか否か、 すなわち、 V i (R) , V σ (R) , Vcagの各ベクトルを構成する 2 0個の成分について、 すべて チェックしたか否か判定し、 mの値が 2 1と等しくないと判定された場合、 ステ ップ S 1 8 4 1に戻り、 それ以降の処理を繰り返し実行する。
ステップ S 1 8 4 3において、 mの値が 2 1と等しいと判定された場合、 すな わち、 V i (R), νσ (R), Vcagの各ベク トルを構成する 2 0個の成分について、 全て、 Vjli (R)m-Va (R)m≤Vcagtn≤V/i (R)m+Va (R)mの条件を満たしていると 判定された場合、 学習部 8 9 4は、 ステップ S 1 844に進み、 Vcagは Rに対 応する感情情報 Eに属しているものと特定する。 例えば、 Rが 1の場合、 ベタ トル V 3 0および νσ 3 0を構成する 2 0個の成分について、 すべて V 3 Ora -Va 3 Om≤Vcagm≤VjU 3 Om+νσ 3 Omの条件を満たしているとき、 特徴べ タ トル Vcagは、 感情情報 「活性 '強」 に属しているものと特定される。
ステップ S 1 8 3 8において、 全ての感情情報に関してデータを読み出したと 判定された場合、 学習部 8 9 4は、 ステップ S 1 8 4 5に進み、 特徴べク トル Vcagに対応する感情情報を特定不能として処理を終了する。 すなわち、 3 6種 類の感情情報に対応する 3 6個の中心べク トル V (R)と 3 6個の標準偏差べク トノレ νσ (R)のそれぞれについて、 μ (R)m— νσ (R)m≤Vcagm≤V i (R)m+ νσ (R)mの条件を満たしているか否かがチェックされ、 その結果、 V i (R), νσ (R), Vcagの各ベクトルを構成する 2 0個の成分について、 全て、 V U (R)m 一 νσ (R)m≤Vcagm≤VjU (R)m+Va (R) raの条件を満たしていると判定されたもの がなかった場合、 特徴ベク トル Vcagに対応する感情情報は、 特定不能と判定さ れる。 '
図 1 1 7は、 使用者 aの各感情情報に対応する振動情報の特徴量べク トルを 示した図である。 この図は、 Acc+(1)軸, Acc+(2)軸, Acc+(3)軸, Tac+(1) 軸, Tac+(2)軸, Tac+(3)軸, Acc- (1)軸, Acc- (2)軸, Acc- (3)軸, Tac- (1)軸, Tac - (2)軸, Tac- (3)軸, Igr一 R(l)軸, Igr_R(2)軸, Tgr_R (1)軸, Tgr一 R (2)軸, Igr— L(l) 軸, Igr_L(2)軸, Tgr_L(l)軸,および Tgr— L (2)軸からなる 2 0次元空間として示 されている。 この空間には、 使用者 aの感情情報 「悲しみ ·弱」 に対応する特徴 ベタ トル郡 V 9の分布とその中心べク トル V 9、 使用者 aの感情情報 「嫌悪 ' 弱」 に対応する特徴べク トル郡 V I 5の分布とその中心べクトノレ VjU 1 5、 使用 者 aの感情情報 「興味 '中」 に対応する特徴べク トル郡 VI 7の分布とその中心 ベタトル V / 1 7などが存在する。
各感情情報に対応する中心べクトルのうち、 図 1 1 4のステップ S 1 7 3 5に おいて生成された特徴ベクトル Vcagは、 感情情報 「活性 '強」 に対応する特徴 ベクトル群 V3 0の分布の中心ベクトル Vjt 3 0と近接しており、 上述した Vcag の感情情報特定処理の結果、 「活性 ·強」 を示す特徴べク トルであると特定され る。 このようにして、 特徴べク トル Vcagから、 使用者 aの感情、 状態、 およぴそ の強度が特定される。
次に図 1 1 8を参照して、 特定結果出力再計算処理について説明する。 この処 理は、 ゲーム機 Bの学習部 8 9 4において実行される。 ステップ S 1 8 6 1に おいて、 学習部 8 9 4は、 特定結果を出力制御部 9 1 4に出力し、 ステップ S 1 8 6 2において使用者 aの感情情報 Eに対応する加速度情報と握り圧情報の特 徴べク トルの分布 fvc、 分布の中心べクトル V 、 分布の標準偏差べク トル ν σ を再計算し、 蓄積する。 すなわち、 図 1 1 4のステップ S 1 7 3 5において生成 された特徴べクトル Vcagは、 蓄積部 8 9 5に蓄積されている使用者 aの強い活 性を示す加速度情報と握り圧情報の特徴ベク トル郡に加えられ、 あらたに、 fvc、 V i、 および ν σが計算され、 蓄積部 8 9 5に蓄積される。
このようにして、 加速度情報と握り圧情報から使用者の感情、 状態、 およびそ の強度が特定される。 また、 感情、 状態、 およびその強度が特定された特徴べク トルの情報が、 あらたに蓄積される。
ここまで、 ゲーム機 Βが、 ゲーム機 Αから送信された使用者 aに関する加速 度情報と握り圧情報から特徴量べクトル Vcagを生成し、 感情情報を特定する処 理について説明したが、 同様にゲーム機 Bは、 使用者 bに関する加速度情報と 握り圧情報から特徴べク トルを生成し、 感情情報を特定することもできる。
また、 ゲーム機 Aも同様にして、 使用者 aと使用者 bの感情情報を特定する ことができる。
次に、 図 1 1 9と図 1 2 0を参照して、 情報出力処理について説明する。 ステ ップ S 1 8 8 1において、 システム制御部 8 9 7は、 出力情報が選択されたか否 かを判定し、 選択されたと判定されるまで待機する。 出力情報の選択は、 例えば、 ゲーム機に接続されたテレビまたはディスプレイ上に表示されたメュユーを使用 者が選択することによって行われる。 使用者が選択できるメニューは、 「特定結 果」 、 「特徴量に基づく情報」 、 「波形情報」 、 および 「蓄積情報」 の 4種類が ある。 ステップ S 1 8 8 1において、 出力情報が選択されたと判定された場合、 シス テム制御部 8 9 7は、 ステップ S 1 8 8 2に進み、 特定結果が選択されたか否か を判定し、 特定結果が選択された判定された場合、 ステップ S 1 8 8 3において、 特定結果に対応する 2ビットの選択情報 0 0を出力制御部 9 1 4に送信する。 ステップ S 1 8 8 4において、 出力制御部 9 1 4は、 感情情報の特定結果に応 じてキャラクタの表示を制御する。 ゲーム機に接続されたテレビまたはディスプ レイ上には、 使用者が選択したキャラクタが表示されており、 出力制御部 9 1 4 は、 特定された感情情報にもとづいて、 キャラクタの表情や動作を制御する。 例 えば、 感情情報として 「活性,強」 が特定された場合、 キャラクタの表情を元気 にあふれた表情とし、 また、 キャラクタの手足を上下に動かし、 元気な様子を表 現する。
ステップ S 1 8 8 2において、 特定結果が選択されていないと判定された場合、 システム制御部 8 9 7は、 ステップ S 1 8 8 5に進み、 特徴量に基づく情報が選 択されたか否かを判定し、 特徴量に基づく情報が選択されたと判定された場合、 ステップ S 1 8 8 6に進み、 特徴量に基づく情報に対応する 2ビットの選択情報 0 1を出力制御部 9 1 4に送信する。
ステップ S 1 8 8 7において、 出力制御部 9 1 4は、 特徴量
(Acc+ (1), Acc+ (2) , Acc+ (3), Tac+ ( l) , Tac+ (2) , Tac+ (3) , Acc -(1) , Acc - (2) , Acc- (3) , Tac- ( 1) , Tac- (2) , Tac- (3) ) を特徴抽出部 9 1 2から取得し、 ス テツプ S 1 8 8 8に進み、 振動呈示部駆動信号を生成する。 すなわち、 図 1 2 2 に示されるように、 出力のレベルを Acc+ ( 1), Acc+ (2), Acc+ (3)とし、 出力 ON時 間を Tac+ (l) , Tac+ (2),Tac+ (3)とした矩形波と、 出力のレベルを Acc -(1) , Acc- (2) , Acc- (3)とし、 出力 ON時間を Tac- ( 1) , Tac- (2) , Tac- (3)とした矩形波から なる駆動信号が生成される。 そして、 ステップ S 1 8 8 9に進み、 出力制御部 9 1 4は、 生成された駆動信号にもとづいて、 振動提示部 9 6 5 Lと 9 6 5 Rを同 時に駆動させる。 そして、 ステップ S 1 8 90において、 出力制御部 9 14は、 特徴量
(Igr— R ( 1) , Igr_R (2), Tgr_R ( 1) , Tgr— R (2), Igr_L (1), Igr一 L (2), Tgr_L ( 1), Tgr — L(2)) を特徴抽出部 9 1 2から取得し、 ステップ S 1 8 9 1に進み、 光呈示部 駆動信号を生成する。 すなわち、 図 1 23に示されるように、 出力の振幅を Igr_R(l)とし、 出力 ON時間を Tgr— R(l)とした正弦波と、 出力の振幅を
Igr_R(2)とし、 出力 ON時間を Tgr— R(2)とした正弦波からなる駆動信号が生成 される。 また、 図 1 24に示されるように、 出力の振幅を Igr_L(l)とし、 出力 ON時間を Tgr_L(l)とした正弦波と、 出力の振幅を Igr— L(2)とし、 出力 ON時間 を Tgr_L(2)とした正弦波からなる駆動信号が生成される。
ステップ S 1 89 2において、 出力制御部 9 14は、 図 1 23に示される駆動 信号に基づいて、 光呈示部 964 Rを駆動し、 図 1 24に示される駆動信号に基 づいて、 光呈示部 964 Lを駆動する。
ステップ S 1 88 5において、 特徴量に基づく情報が選択されていないと判定 された場合、 システム制御部 8 9 7は、 ステップ S 1 893において、 波形情報 が選択されたか否かを判定し、 波形情報が選択されたと判定された場合、 ステツ プ S 1 8 94において、 波形情報に対応する 2ビットの選択情報 1 0を出力制御 部 9 1 4に出力する。
ステップ S 1 89 5において、 出力制御部 9 14は、 特徴抽出部 9 1 2からサ ンプリングされた加速度情報を取得し、 取得された加速度情報に基づいて、 振動 呈示部 96 5 Lと 965 Rを駆動する駆動信号を生成し、 ステップ S 1 8 96に おいて、 振動呈示部 96 5 Lと 965 Rを駆動信号に基づいて、 同時に駆動する。 ステップ S 1 8 97において、 出力制御部 9 14は、 特徴抽出部 9 1 2からサン プリングされた握り圧情報を取得し、 取得された右側の握り圧情報 (握り圧セン サ 96 3 Rにより、 検出された握り圧情報) に基づいて、 光呈示部 964 Rを駆 動する駆動信号を生成し、 取得された左側の握り圧情報 (握り圧センサ 96 3 L により、 検出された握り圧情報) に基づいて、 光呈示部 964 Lを駆動する駆動 信号を生成し、 ステップ S 1 8 9 8において、 光呈示部 9 6 4 Rと 9 6 4 Lをそ れぞれの駆動信号に基づいて駆動する。
ステップ S 1 8 9 3において、 波形情報が選択されていないと判定された場合、 システム制御部 8 9 7は、 ステップ S 1 8 9 9に進み、 蓄積情報が選択されたか 否かを判定する。 蓄積情報が選択されていないと判定された場合、 ステップ S 1 9 0 4でエラー処理が実行される。 ステップ S 1 8 9 9で、 蓄積情報が選択され たと判定された場合、 システム制御部 8 9 7は、 ステップ S 1 9 0 0において、 蓄積情報に対応する 2ビットの選択情報 0 1を出力制御部 9 1 4に出力する。 蓄積情報が選択された場合、 ゲーム機に接続されたテレビまたはディスプレイ 上に更にサブメニューが表示され、 使用者は、 どの蓄積情報をどのゲーム機に出 力するかを選択することができる。 すなわち、 加速度情報または握り圧情報を示 す情報の種類 inf、 個人を特定する情報 PID、 感情情報 E、 および出力先を示す 情報 Toが選択される。 例えば、 inf として加速度情報または握り圧情報、 PID として使用者 a、 Eとして強い活性、 出力先として使用者 bなどが選択される。 ステップ S 1 9 0 1において、 システム制御部 8 9 7は、 情報の種類 inf、 個 人を特定する情報 PID、 感情情報 E、 出力先 Toが選択されたか否かを判定し、 選択されたと判定されるまで待機する。
ステップ S 1 9 0 2において、 システム制御部 8 9 7は、 使用者に選択された 情報に基づいて (inf, PID, E, To) の情報を生成し、 出力制御部 9 1 4に送信 する。
ステップ S 1 9 0 3において、 出力制御部 9 1 4は、 図 1 2 1を参照して後述 する蓄積情報出力処理を行う。 これにより、 選択された情報の種類 inf、 個人を 特定する情報 PID、 感情情報 Eに基づく信号が生成され、 出力先 To に基づいて、 生成された信号が送信される。
ここで、 図 1 2 1を参照して、 図 1 2 0のステップ S 1 9 0 3の蓄積情報出力 処理について説明する。 ステップ S 1 9 2 1において出力制御部 9 1 4は、 選択された情報 (PID, E) に基づいて、 蓄積部 8 9 5から加速度情報と握り圧情報の中心べク トルを取 得する。 この例では、 蓄積部 8 9 5に蓄積されている使用者 aの 「活性 .強」 に対応する加速度情報と握り圧情報の特徴べクトルの分布の中心べクトル V//30 (Acc+30 (1), Acc+30 (2), Acc+30 (3), Tac+30 (1), Tac+30 (2) , Tac+30 (3) , Acc - 30(1), Acc - 30 (2) , Acc - 30 (3), Tac-30 (1) , Tac - 30 (2) , Tac-
30 (3), Igr— R30 (1) , Igr_R30 (2), Tgr_R30 (1) , Tgr_R30 (2) , Igr_L30(l), Igr一 L30 (2),Tgr_L30(l), Tgr_L30(2)) が取得される。
ステップ S 1 9 2 2において、 出力制御部 9 1 4は、 情報の種類 inf として 加速度情報が選択されたか否かを判定し、 加速度情報が選択されたと判定された 場合、 ステップ S 1 9 2 3に進み、 V /30の第 1番目乃至第 1 2番目の成分を抽 出する。
そして、 ステップ S 1 9 24に進み振動呈示部駆動信号を生成する。 すなわち、 図 1 2 5に示されるように、 出力のレベルを Acc+30(1), Acc+30 (2), Acc+30 (3) とし、 出力 ON時間を Tac+30 (1), Tac+30 (2), Tac+30 (3)とした矩形波と、 出力の レベルを Acc-30(1), Acc -30(2), Acc- 30(3)とし、 出力 ON時間を Tac - 30(1), Tac-30 (2), Tac-30 (3)とした矩形波からなる駆動信号が生成される。
ステップ S 1 9 2 5において、 出力制御部 9 1 4は、 出力先 Toが自端末 (ゲ ーム機) の使用者か否かを判定し、 自端末の使用者ではないと判定された場合、 ステップ S 1 9 2 7に進み、 出力先の端末へ駆動信号を送信する。 例えば、 出力 先 Toとして使用者 bが選択されている場合、 使用者 bの端末 (ゲーム機 B) に 駆動信号が送信される。 そして、 ステップ S 1 9 2 8において、 ゲーム機 Bで は、 情報受信部 9 2 2から駆動信号が受信され、 情報弁別部 9 1 1を介して、 出 力制御部 9 1 4に駆動信号が供給される。 ゲーム機 Bの出力制御部 9 1 4は、 駆動信号に基づいて、 ゲーム機 Bの振動呈示部 9 6 5 Rと 9 6 5 Lを同時に駆 動する。 8
86
ステップ S 1 9 2 5において、 出力先 Toが自端末 (ゲーム機) の使用者であ ると判定された場合、 ステップ S 1 9 2 6に進み、 出力制御部 9 1 4は、 駆動信 号に基づいて、 自端末 (ゲーム機) の振動呈示部 9 6 5 Rと 9 6 5 Lを同時に駆 動する。
ステップ S 1 9 2 2において、 情報の種類 inf として加速度情報が選択され ていないと判定された場合 (握り圧情報が選択された場合) 、 ステップ S 1 9 2 9に進み、 出力制御部 9 1 4は、 Vj« 30の第 1 3番目乃至第 2 0番目の成分を抽 出する。
そして、 ステップ S 1 9 3 0に進み、 出力制御部 9 1 4は、 光呈示部駆動信号 を生成する。 すなわち、 図 1 2 6に示されるように、 出力の振幅を Igr_R30(l) とし、 出力 ON時間を Tgr_R30(l)とした正弦波と、 出力の振幅を Igr一 R30 (2)と し、 出力 ON時間を Tgr_R30(2)とした正弦波からなる駆動信号が生成される。 また、 図 1 2 7に示されるように、 出力の振幅を Igr一 L30(l)とし、 出力 ON時 間を Tgr— L30(l)とした正弦波と、 出力の振幅を Igr_L30(2)とし、 出力 0N時間 を Tgr_L30(2)とした正弦波からなる駆動信号が生成される。
ステップ S 1 9 3 1において、 出力制御部 9 1 4は、 出力先 Toが自端末 (ゲ ーム機) の使用者か否かを判定し、 自端末の使用者ではないと判定された場合、 ステップ S 1 9 3 3に進み、 出力先の端末へ駆動信号を送信する。 例えば、 出力 先 Toとして使用者 bが選択されている場合、 使用者 bの端末 (ゲーム機 B) に 駆動信号が送信される。 そして、 ステップ S 1 9 3 4において、 ゲーム機 Bで は、 情報受信部 9 2 2から駆動信号が受信され、 情報弁別部 9 1 1を介して、 出 力制御部 9 1 4に駆動信号が供給される。 ゲーム機 Bの出力制御部 9 1 4は、 図 1 2 6に示される駆動信号に基づいて、 ゲーム機 Bの光呈示部 9 6 4 Rを駆 動し、 図 1 2 7に示される駆動信号に基づいて、 ゲーム機 Bの光呈示部 9 64 Lを馬区動する。
ステップ S 1 9 3 1において、 出力先 Toが自端末 (ゲーム機) の使用者であ ると判定された場合、 ステップ S 1 9 3 2に進み、 出力制御部 9 1 4は、 図 1 2 6に示される駆動信号に基づいて、 自端末 (ゲーム機) の光呈示部 9 6 4 Rを駆 動し、 図 1 2 7に示される駆動信号に基づいて自端末 (ゲーム機) の光呈示部 9 6 4 Lを駆動する。
このようにして、 使用者は、 加速度情報と握り圧情報から特定された感情、 状 態、 およびその強度を表示させ、 認識することができる。 ゲーム機のコントロー ラの振動により、 加速度情報を体感することができ、 ゲーム機のコントローラが 発する光により、 握り圧情報を体感することができる。 また、 使用者が所望する 特定の個人の特定の感情情報に対応する加速度情報または握り圧情報を指定して、 特定の相手に体感させることができる。
さらに、 オンラインゲームにおいて、 通信する相手の感情、 状態、 およびその 強度を体感させることにより、 より臨場感のあるゲームを行うことができる。 以上では、 本発明の実施の形態を、 実施の形態 1、 実施の形態 2、 実施の形態 3、 および実施の形態 4に分けて説明してきたが、 実施の形態 1、 実施の形態 2、 実施の形態 3、 および実施の形態 4を組み合わせて 1つの端末を構成してもよい。 なお、 本明細書において上述した一連の処理を実行するステップは、 記載され た順序に沿つて時系列的に行われる処理はもちろん、 必ずしも時系列的に処理さ れなくとも、 並列的あるいは個別に実行される処理をも含むものである。 産業上の利用可能性
以上の如く、 本発明によれば、 生体情報、 キーボードの振動情報、 マウスのク リック情報、 握り圧情報、 ゲーム機のコントローラの加速度情報および握り圧情 報などの情報から、 使用者の感情、 状態、 およびその強度を特定することができ る。 また、 従来のように言語、 音声、 画像による通信だけでなく、 生体情報、 キ 一ボードの振動情報、 マウスのクリック情報、 握り圧情報、 ゲーム機のコント口 ーラの加速度情報、 握り圧情報などの情報を伝送し、 様々な形で出力することが できるので、 より親密で感情が伝わるコミュニケーシヨンを実現することができ る。

Claims

請求の範囲
1 . 非言語的情報と言語的情報の入力を受け付ける入力受付手段と、
入力された前記非言語的情報を前記言語的情報に関係付けて、 使用者の感情を 学習する学習手段と、
前記学習手段による学習の結果得られた情報を蓄積する蓄積手段と、
入力された前記非言語的情報、 または蓄積された前記非言語的情報を所定の信 号に変換し、 出力する出力手段と
を備えることを特徴とする情報処理装置。
2 . 前記学習手段は、 使用者の感情を、 その強度とともに学習する
ことを特徴とする請求の範囲第 1項に記載の情報処理装置。
3 . 前記学習手段は、 新たに前記非言語的情報が入力されたとき、 前記蓄積手 段に蓄積された前記非言語的情報に基づいて、 使用者の感情を特定し、
前記出力手段は、 前記学習手段が特定した結果を出力する
ことを特徴とする請求の範囲第 1項に記載の情報処理装置。
4 . 前記蓄積手段は、 前記学習手段により特定された感情に対応する前記非言 語的情報を、 前記蓄積手段に既に蓄積された非言語的情報に付加してさらに蓄積 する
ことを特徴とする請求の範囲第 3項に記載の情報処理装置。
5 . 前記非言語的情報の特徴を表す変数を生成する変数生成手段をさらに備え、 前記学習手段は、 生成された前記変数を統計的に処理し、 前記変数を蓄積手段 に蓄積する
ことを特徴とする請求の範囲第 1項に記載の情報処理装置。
6 . 前記学習手段は、 入力された前記非言語的情報から前記変数生成手段が生 成した前記変数と、 前記蓄積手段に蓄積された前記変数を比較して、 使用者の感 情を特定する
ことを特徴とする請求の範囲第 5項に記載の情報処理装置。
7 . 前記入力手段は、 前記非言語的情報として、 使用者の脈拍情報、 または体 動情報の入力を受け付ける
ことを特徴とする請求の範囲第 1項に記載の情報処理装置。
8 . 前記入力手段は、 前記非言語的情報として、 使用者の打鍵による振動情報 の入力を受け付ける
ことを特徴とする請求の範囲第 1項に記載の情報処理装置。
9 . 前記入力手段は、 前記非言語的情報として、 使用者のマウス握り圧情報、 または環境温度情報の入力を受け付ける
ことを特徴とする請求の範囲第 1項に記載の情報処理装置。
1 0 . it前記情報処理装置は、 オンラインゲームを行うゲーム機である
ことを特徴とする請求の範囲第 1項に記載の情報処理装置。
1 1 . 前記入力手段は、 前記非言語的情報として前記ゲーム機のコントローラ の加速度情報、 または握り圧情報の入力を受け付ける
ことを特徴とする請求の範囲第 1 0項に記載の情報処理装置。
1 2 . 前記出力手段は、 蓄積された前記非言語的情報のうち、 使用者が指定し た特定の前記非言語的情報を抽出し、 抽出された前記非言語的情報を所定の信号 に変換し、 使用者が指定する他のゲーム機に出力する
ことを特徴とする請求の範囲第 1 0項に記載の情報処理装置。
1 3 . 非言語的情報と言語的情報の入力を受け付ける入力受付ステップと、 入力された前記非言語的情報を前記前記言語的情報に関係付けて、 使用者の感 情を学習する学習ステップと、
前記学習ステップの処理による学習の結果得られた情報を蓄積する蓄積ステッ プと、
入力された前記非言語的情報または、 蓄積された前記非言語的情報を所定の信 号に変換し、 出力する出力ステップと
を含むことを特徴とする情報処理方法。
1 4 . 非言語的情報と言語的情報の入力を受け付けを制御する入力受付制御ス テツプと、
入力された前記非言語的情報を前記前記言語的情報に関係付けて、 使用者の感 情の学習を制御する学習制御ステップと、
前記学習制御ステップの処理による学習の結果得られた情報の蓄積を制御する 蓄積制御ステップと、
入力された前記非言語的情報または、 蓄積された前記非言語的情報の所定の信 号への変換、 出力を制御する出力制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
1 5 . 請求の範囲第 1 4に記載されたプログラムが記録されたことを特徴とす る記録媒体。
PCT/JP2003/012758 2002-12-11 2003-10-06 情報処理装置および方法、プログラム、並びに記録媒体 WO2004053702A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2003801002127A CN1692341B (zh) 2002-12-11 2003-10-06 信息处理设备和信息处理方法
US10/503,121 US7548891B2 (en) 2002-12-11 2003-10-06 Information processing device and method, program, and recording medium
EP03748712A EP1574961A4 (en) 2002-12-11 2003-10-06 INFORMATION PROCESSING DEVICE AND METHOD, PROGRAM AND RECORDING MEDIUM

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2002-359823 2002-12-11
JP2002359823 2002-12-11
JP2003-40993 2003-02-19
JP2003040993A JP2004237022A (ja) 2002-12-11 2003-02-19 情報処理装置および方法、プログラム、並びに記録媒体

Publications (1)

Publication Number Publication Date
WO2004053702A1 true WO2004053702A1 (ja) 2004-06-24

Family

ID=32510652

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/012758 WO2004053702A1 (ja) 2002-12-11 2003-10-06 情報処理装置および方法、プログラム、並びに記録媒体

Country Status (6)

Country Link
US (1) US7548891B2 (ja)
EP (1) EP1574961A4 (ja)
JP (1) JP2004237022A (ja)
KR (1) KR100994906B1 (ja)
CN (1) CN1692341B (ja)
WO (1) WO2004053702A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104808990A (zh) * 2015-04-16 2015-07-29 深圳市金立通信设备有限公司 一种终端
CN104808989A (zh) * 2015-04-16 2015-07-29 深圳市金立通信设备有限公司 一种终端控制方法

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041988A (ja) * 2005-08-05 2007-02-15 Sony Corp 情報処理装置および方法、並びにプログラム
JP2007280485A (ja) * 2006-04-05 2007-10-25 Sony Corp 記録装置、再生装置、記録再生装置、記録方法、再生方法および記録再生方法並びに記録媒体
EP2022039B1 (en) * 2006-05-04 2020-06-03 Sony Computer Entertainment America LLC Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands
KR101131856B1 (ko) * 2006-11-03 2012-03-30 엘지전자 주식회사 방송 신호 송신 장치 및 이를 이용한 방송 신호 송수신방법
EP2132650A4 (en) * 2007-03-01 2010-10-27 Sony Comp Entertainment Us SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD
US20080215975A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Virtual world user opinion & response monitoring
JP2008225550A (ja) * 2007-03-08 2008-09-25 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP4506795B2 (ja) * 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
US8262474B2 (en) * 2009-04-21 2012-09-11 Mcmain Michael Parker Method and device for controlling player character dialog in a video game located on a computer-readable storage medium
US8902050B2 (en) * 2009-10-29 2014-12-02 Immersion Corporation Systems and methods for haptic augmentation of voice-to-text conversion
KR101130761B1 (ko) * 2010-02-26 2012-03-28 대구가톨릭대학교산학협력단 비씨아이 기반 뇌파 측정장치
WO2012063976A1 (ja) * 2010-11-11 2012-05-18 オリンパスメディカルシステムズ株式会社 超音波診断装置、超音波診断装置の作動方法および超音波診断装置の作動プログラム
WO2012063975A1 (ja) * 2010-11-11 2012-05-18 オリンパスメディカルシステムズ株式会社 超音波観測装置、超音波観測装置の作動方法および超音波観測装置の作動プログラム
JP5745265B2 (ja) * 2010-12-22 2015-07-08 株式会社ソニー・コンピュータエンタテインメント 信号処理装置、タッチパネルユニット、情報処理装置および信号処理方法
US20120311032A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Emotion-based user identification for online experiences
CN104203089B (zh) * 2012-03-30 2016-05-04 精工爱普生株式会社 搏动检测装置以及电子设备
US10175750B1 (en) * 2012-09-21 2019-01-08 Amazon Technologies, Inc. Projected workspace
CN108992052A (zh) * 2014-03-14 2018-12-14 上海万泽精密铸造有限公司 便于随身隐蔽携带的自闭症患者用随身佩戴装置
US10675532B2 (en) * 2014-04-21 2020-06-09 Steelseries Aps Variable actuators of an accessory and methods thereof
US10022622B2 (en) 2014-04-21 2018-07-17 Steelseries Aps Programmable actuation inputs of an accessory and methods thereof
US20170105628A1 (en) * 2014-06-28 2017-04-20 Intel IP Corporation Pulse diagnosis
CN104462906A (zh) * 2014-12-19 2015-03-25 中国农业银行股份有限公司 一种具有信息采集功能的鼠标和身份识别方法及系统
CN105100435A (zh) * 2015-06-15 2015-11-25 百度在线网络技术(北京)有限公司 移动通讯应用方法和装置
CN105244023A (zh) * 2015-11-09 2016-01-13 上海语知义信息技术有限公司 课堂教学中教师情绪的提醒系统及方法
US10241583B2 (en) * 2016-08-30 2019-03-26 Intel Corporation User command determination based on a vibration pattern
CN106419936A (zh) * 2016-09-06 2017-02-22 深圳欧德蒙科技有限公司 一种基于脉搏波时间序列分析的情绪分类方法及装置
JPWO2019087916A1 (ja) * 2017-11-01 2020-10-22 アルプスアルパイン株式会社 生体情報測定装置、情報処理装置、情報処理方法、プログラム
JP2019159707A (ja) * 2018-03-12 2019-09-19 富士ゼロックス株式会社 情報提示装置、情報提示方法及び情報提示プログラム
CN108577866A (zh) * 2018-04-03 2018-09-28 中国地质大学(武汉) 一种多维情感识别与缓解的系统及方法
US11243957B2 (en) * 2018-07-10 2022-02-08 Verizon Patent And Licensing Inc. Self-organizing maps for adaptive individualized user preference determination for recommendation systems
CN109697472B (zh) * 2018-12-28 2021-05-04 泰州市津达电子科技有限公司 一种子情绪划归方法
CN109460752B (zh) * 2019-01-10 2020-10-16 广东乐心医疗电子股份有限公司 一种情绪分析方法、装置、电子设备及存储介质
JP7355242B2 (ja) 2020-06-12 2023-10-03 株式会社村田製作所 グリップ判定装置、グリップ判定方法及びグリップ判定プログラム
GB2618814A (en) * 2022-05-18 2023-11-22 Sony Interactive Entertainment Inc Player selection system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JP2001034410A (ja) * 1999-07-26 2001-02-09 Matsushita Electric Ind Co Ltd 感性入力装置および感性推定方法
JP2001160021A (ja) * 1999-12-03 2001-06-12 Sony Corp 仮想空間による通信システム
JP2001236162A (ja) * 2000-02-24 2001-08-31 Sony Computer Entertainment Inc エンタテインメント装置、記録媒体及びコンピュータプログラム
JP2002202943A (ja) * 2000-12-28 2002-07-19 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0716349A (ja) 1993-07-02 1995-01-20 Pioneer Electron Corp ビデオゲーム装置
JPH08191952A (ja) 1995-01-18 1996-07-30 Yutaka Nakano 仮想現実体感方法及び装置
US5918222A (en) * 1995-03-17 1999-06-29 Kabushiki Kaisha Toshiba Information disclosing apparatus and multi-modal information input/output system
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
JP3159242B2 (ja) * 1997-03-13 2001-04-23 日本電気株式会社 感情生成装置およびその方法
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
JPH1147444A (ja) * 1997-07-29 1999-02-23 Sony Corp 通信型ゲーム装置
JPH11119791A (ja) * 1997-10-20 1999-04-30 Hitachi Ltd 音声感情認識システムおよび方法
US6102846A (en) * 1998-02-26 2000-08-15 Eastman Kodak Company System and method of managing a psychological state of an individual using images
JPH11333139A (ja) 1998-05-26 1999-12-07 Fuji Electronics Co Ltd 動態画像のコントロール装置
JP3914636B2 (ja) 1998-06-12 2007-05-16 有限会社アンブレラ 音声入力式ヒューマンインタフェースに特徴を有するビデオゲーム機およびプログラム記録媒体
US6230111B1 (en) * 1998-08-06 2001-05-08 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
US7263489B2 (en) * 1998-12-01 2007-08-28 Nuance Communications, Inc. Detection of characteristics of human-machine interactions for dialog customization and analysis
US6466232B1 (en) * 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6513046B1 (en) * 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
US7055101B2 (en) * 1998-12-18 2006-05-30 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
KR20010053481A (ko) * 1999-05-10 2001-06-25 이데이 노부유끼 로봇 장치 및 그 제어 방법
US6418435B1 (en) * 1999-08-11 2002-07-09 Connotative Reference Corporation System for quantifying intensity of connotative meaning
US6480826B2 (en) * 1999-08-31 2002-11-12 Accenture Llp System and method for a telephonic emotion detection that provides operator feedback
JP2001215993A (ja) * 2000-01-31 2001-08-10 Sony Corp 対話処理装置および対話処理方法、並びに記録媒体
JP2001249945A (ja) * 2000-03-07 2001-09-14 Nec Corp 感情生成方法および感情生成装置
JP2002282543A (ja) * 2000-12-28 2002-10-02 Sony Computer Entertainment Inc オブジェクトの音声処理プログラム、オブジェクトの音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体、プログラム実行装置、及びオブジェクトの音声処理方法
JP2002230011A (ja) 2001-02-05 2002-08-16 Seiko Epson Corp 感情認識システム
JP2002298155A (ja) 2001-03-29 2002-10-11 Hic:Kk 感情による3dコンピュータグラフィックス表情モデル形成システム
EP1298645A1 (en) * 2001-09-26 2003-04-02 Sony International (Europe) GmbH Method for detecting emotions in speech, involving linguistic correlation information
US7007001B2 (en) * 2002-06-26 2006-02-28 Microsoft Corporation Maximizing mutual information between observations and hidden states to minimize classification errors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 情報公開装置
JP2001034410A (ja) * 1999-07-26 2001-02-09 Matsushita Electric Ind Co Ltd 感性入力装置および感性推定方法
JP2001160021A (ja) * 1999-12-03 2001-06-12 Sony Corp 仮想空間による通信システム
JP2001236162A (ja) * 2000-02-24 2001-08-31 Sony Computer Entertainment Inc エンタテインメント装置、記録媒体及びコンピュータプログラム
JP2002202943A (ja) * 2000-12-28 2002-07-19 Square Co Ltd ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムおよびそのプログラムを記録したコンピュータ読取り可能な記録媒体。

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Sakura Wars 3 Game Navigation Guide", DREAMCAST, 17 May 2001 (2001-05-17), pages 051, XP002994479 *
See also references of EP1574961A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104808990A (zh) * 2015-04-16 2015-07-29 深圳市金立通信设备有限公司 一种终端
CN104808989A (zh) * 2015-04-16 2015-07-29 深圳市金立通信设备有限公司 一种终端控制方法

Also Published As

Publication number Publication date
KR20050084771A (ko) 2005-08-29
EP1574961A4 (en) 2011-10-26
CN1692341A (zh) 2005-11-02
EP1574961A1 (en) 2005-09-14
JP2004237022A (ja) 2004-08-26
US20050149467A1 (en) 2005-07-07
KR100994906B1 (ko) 2010-11-16
US7548891B2 (en) 2009-06-16
CN1692341B (zh) 2010-12-08

Similar Documents

Publication Publication Date Title
WO2004053702A1 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
CN107203953B (zh) 一种基于互联网、表情识别和语音识别的教学系统及其实现方法
CN108573695B (zh) 语音处理装置及其方法、机器人及计算机可读取记录介质
De Silva et al. Bimodal emotion recognition
CN1326400C (zh) 虚拟电视通话装置
US8285552B2 (en) System and method for simulating expression of message
JP6400445B2 (ja) 会話分析装置、会話分析システム、会話分析方法及び会話分析プログラム
US20050114142A1 (en) Emotion calculating apparatus and method and mobile communication apparatus
WO2007098560A1 (en) An emotion recognition system and method
US20170169203A1 (en) Robot-human interactive device, robot, interaction method, and recording medium storing program
US20110144804A1 (en) Device and method for expressing robot autonomous emotions
KR20180136387A (ko) 커뮤니케이션 장치, 커뮤니케이션 로봇 및 컴퓨터가 판독 가능한 기록 매체
CN113508369A (zh) 交流支持系统、交流支持方法、交流支持程序以及图像控制程序
JP2001084411A (ja) スクリーン上のキャラクター制御システム
Hasegawa et al. Active agent oriented multimodal interface system
CN105536264A (zh) 可与使用者进行交互的玩具及其与使用者的交互实现方法
JP2019133451A (ja) 評価方法、評価装置、評価プログラム、および、評価システム
JP4525712B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2021051693A (ja) 発話システム、発話推薦装置、発話推薦プログラムおよび発話推薦方法
JP4774825B2 (ja) 演技評価装置及び方法
JP7096626B2 (ja) 情報抽出装置
JP7197957B2 (ja) 反応解析システムおよび反応解析装置
JP4254400B2 (ja) 画像生成装置およびその画像生成方法、ならびにコンピュータ読み取り可能な記録媒体
TW201108151A (en) Instant communication control system and its control method
WO2022064622A1 (ja) 感情解析システム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

WWE Wipo information: entry into national phase

Ref document number: 10503121

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003748712

Country of ref document: EP

Ref document number: 1020047012342

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038A02127

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2003748712

Country of ref document: EP