WO2002041254A1 - Dispositif robot et procede d'identification faciale, et dispositif et procede d'identification d'images - Google Patents

Dispositif robot et procede d'identification faciale, et dispositif et procede d'identification d'images Download PDF

Info

Publication number
WO2002041254A1
WO2002041254A1 PCT/JP2001/010101 JP0110101W WO0241254A1 WO 2002041254 A1 WO2002041254 A1 WO 2002041254A1 JP 0110101 W JP0110101 W JP 0110101W WO 0241254 A1 WO0241254 A1 WO 0241254A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
image
tracking
data
identification
Prior art date
Application number
PCT/JP2001/010101
Other languages
English (en)
French (fr)
Inventor
Atsushi Okubo
Kohtaro Sabe
Kenta Kawamoto
Masaki Fukuchi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/181,279 priority Critical patent/US7200249B2/en
Publication of WO2002041254A1 publication Critical patent/WO2002041254A1/ja
Priority to US11/656,115 priority patent/US7317817B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Definitions

  • the face identification method includes: a face tracking step of tracking a moving face in an image captured in an imaging step; and a face tracking information in the face tracking step.
  • FIG. 3 is a block diagram illustrating a software configuration of the robot device described above.
  • FIG. 4 is a block diagram showing a configuration of a middleware layer in a software configuration of the above-described robot apparatus.
  • FIG. 5 is a block diagram showing a configuration of an application layer in the software configuration of the robot device described above.
  • the body unit 2 has a CPU (Central Processing Unit) 10, a DRAM (Dynamic Random Access Memory) 11, a flash ROM (Read Only Memory) 12, and a PC (Personal ter).
  • a control unit 16 formed by connecting the card interface circuit 13 and the signal processing circuit 14 via the internal bus 15 and a power source of the robot device 1
  • the body unit 2 has an angular velocity sensor 18 and an acceleration sensor 19 for detecting the acceleration of the direction and movement of the robot device 1. Are also stored.
  • Robotidzuku 'mackerel' object 3 2 is located in the lowermost layer of the device 'Doraino' Les I catcher 3 0, for example, above-described various sensors Ya Akuchiyue.
  • Isseki 2 5 ⁇ 2 5 ⁇ hardware such A batch consisting of software that provides an interface for accessing the software, a mouth port 33, a power management 34 that is a software group that manages power switching, etc.
  • a device driver 'manager 35 comprising software groups for managing various device drivers and a design' robot 36 comprising software groups for managing the mechanism of the robot apparatus 1.
  • the behavior model library 70 includes “when the battery level is low”, “returns to fall”, “when avoiding obstacles”, “when expressing emotions”, Some pre-selected condition items such as "When ball is detected” Independent action models 70 i to 7 On are provided for each of these.
  • Motion model 7 ( ⁇ ⁇ a 0 n Periodically refers to emotion model 73 and instinct model 74. If one of the parameters of “JOY”, “S URP RISE” j or “SUD NE SS” is within the range of “50 to 100”, another node It is possible to transition to.
  • the node NOD E is shown in the row of “destination node” in the column of “transition probability to another node”.
  • ⁇ N ⁇ DE n The node names that can be transitioned from n are listed, and all the conditions described in the columns of “input event name”, “de-night value” and “de-night range” are met.
  • the transition probability to N ⁇ DE n is described in the corresponding part in the column “Transition probability to another node”, and the node, NODE, etc.
  • the action to be output when transitioning to N ⁇ DE n is described in the “Output action” row in the “Transition probability to other node” column. Note that the sum of the probabilities of each row in the column “Transition probabilities to other nodes” is 100 [%].
  • the action switching module 71 based on the action completion information given from the output semantics compa- nance module 6.8 after the action is completed, determines that the action is completed by the learning module 72, the emotion model 73, and the instinct model. 7 Notify 4.
  • the learning module.72 among the recognition results given by the input semantics converter module 59, recognizes the recognition results of the teachings received from the user, such as "hit" and "stroke". input.
  • the notification from the output semantics comparator module 68 is so-called feedback information (action completion information) of the action, information of the appearance result of the action, and the emotion model 73 Emotions can also be changed by sensitive information, such as when the behavior of “barking” lowers the emotional level of anger.
  • the notification from the output semantics converter overnight module 68 is also input to the learning module 72 described above, and the learning module 72 generates the behavior models 70 i to 70 n based on the notification. Change the corresponding transition probability.
  • the feedback of the action result may be made by the output of the action switching module 71 (the action to which the emotion is added).
  • the instinct model 74 consists of the following: “motor desire”, “loving desire”, and “curiosity”.
  • the change amount of the desire at that time calculated by a predetermined arithmetic expression based on the recognition result, the elapsed time, the notification from the output semantics converter module 68, and the like is represented by ⁇ ⁇ [k], the parameter of the current desire.
  • the parameter value I [k + 1] of the desire in the next cycle is calculated using Equation (2) in a predetermined cycle as a coefficient ki representing the sensitivity of the desire, as I [k], and Update the parameter's value of the desire 'by replacing the result with the current parameter of the desire. Overnight value I [k].
  • the instinct model 74 updates the parameter values of each desire except for “appetite”.
  • the robot apparatus 1 can perform autonomous actions according to its own (internal) and surrounding (external) conditions, and instructions and actions from the user, based on the control program. Has been made.
  • the face tracking is for continuously following a face that changes (especially moves) in an image, and limits a search area where a process for face detection is performed in the above-described face detection.
  • a process for face detection is performed in the above-described face detection.
  • the position of the face in the image changes, and thus the face tracking processing in the image is effective in face identification. Acts in a way. '
  • face identification a specific face is identified using the face data obtained by the above-described face detection. Specifically, this face identification is realized by judging whether a person in the two given face images is the same person or another person. The determination is made based on the difference image between the two face images.
  • the face identification process is configured as a module or an object in the robot device 1 as described above.
  • the difference between two face images of the same person is obtained, a group of difference images (intra-personal class) of the same person is generated, and this is expanded into eigenvalues to generate an intra-personal class that is a feature space.
  • intra-personal class For example, B. Moghaddam, W. Wahid, A. Pentland, "Beyond Eigenfaces: Probabilistic Matching for Face Recognition", 3 MIT Media Lab. Perceptual Computing Section Technical Report No. 443, 19 98.).
  • the face identification processing realized through such learning is as follows. First, in order to correctly obtain the difference between two face images, it is necessary to accurately determine the position of the face.
  • the face image stored as the evening message may be a previously registered face image.
  • the face images stored as a database can be updated or newly stored.
  • the robot apparatus 1 can newly register a face image obtained by imaging in an image capturing mode in which image capturing is performed at an instantaneous pace.
  • the robot apparatus 1 includes an image capturing mode for capturing an image according to a user's instruction, and a face image captured according to such a user's instruction can be newly registered in a database.
  • examples of the imaging command by the user include a voice command such as “Take a face”. In this way, it is possible to construct a database of face images while maintaining entertainment.
  • the face image stored in the database in advance is a face image facing the front of each individual.
  • a database image having the highest probability of the same person as the input face image is determined as a person in the scene. For example, the difference value is small In such a case, the difference image is obtained as a so-called smooth image without sharpness.
  • the face change in the input image is tracked in real time, and the estimated position of the face in the input image obtained from this tracking result is obtained.
  • the face detection results can be obtained in a short time.
  • face identification based on these face detection results and statistical processing are performed, enabling highly accurate face identification.
  • Figures 11 and 1.2 show the sequence from face detection to face identification as an example.
  • the conditions are, for example, a case where it takes about 5 seconds to detect a face taking into account several steps of scaling from the entire 176x120 scene, and the color tracking is executed at a period of 50 nisec.
  • the face image G 3 As shown in FIG. 1 2, in the identification process of the face, the face image G 3 more obtained in Mofuingu operation as described above, the face image DGI are obtained in advance through learning stage database, DG 2, DG 3, ⁇ ⁇ ⁇ Get the difference with. As a result, difference face images SD ′ l5 SD 2 , SD 3j ⁇ are obtained.
  • 123 out of 169 images of the same person (72.8%) are identified as being the same person, and 4093 out of 5609 images of another person (73.0%) are identified as another person.

Description

明細書 ロボッ ト装置及び顔識別方法、 並びに画像識別装置及び画像識別方法 技術分野 本発明は、 ロボット装置及び顔識別方法、 並びに画像識別装置及び画像識別方 法に関し、 詳しくは、 自律的に行動し、 且つ顔を識別することができるロボッ ト 装置、 そのようなロボッ ト装置に適用可能な顔識別方法、 並びに画像識別装置及 び画像識別方法に関する。 背景技術 顔認識に関する研究は、 パターン認識理論を検証する上でペンチマーク的な位 置付けを持っており、 古くから多くの手法が鬨発されてきた。 そこで想定されて いたアプリケーションは、 セキュリティシステムにおける認証や大規模データベ ースからの人物検索等、 静的な環境下で正確性を要するものがほとんどである。 ところで、 近年、 外観形状が犬等の動物に模して形成され、 エンターティンメ ントとしてのロボッ ト装置が提供されている。 このロボッ ト装置は、 外部からの 情報 (例えば、 周囲環境の情報等) や内部の状態 (例えば、 感情状態等) 等に応 じて目や脚等を自律的に動作させることで、 動物のような仕草を表出させている < このようなロボッ ト装置の出現により、 多少不正確でも動的に変化する環境下 で一定時間内に応答できるようなヒューマンィン夕ーフェース技術が要求されて きており、 その一つとしてロボヅ ト装置による顔識別が求められている。 例えば、 顔識別を利用すれば、 ロボット装置は、 多くの中からユーザ (飼い主) を識別す ることができ、 よりエンターテインメント性のあるものとなる。
こうしたロボヅ ト装置に搭載される顔識別のアプリケーシヨンでは、 ある与え られた 1枚のシーンの中の人物を識別する問題に加え、 次のような問題を解決す る必要がある。 ( 1 ) 口ポッ ト装置自身が移動するため、 環境の変化やその多様性を許容しな くてはならない。
( 2 ) 人間とロボヅト装置の位置関係も変化するため、 インタラクション中に は人間を視野に入れ続ける必要がある。
( 3 ) 数多くのシーン画像から人物の識別に使える画像を選び出し、 総合的に 判断しなくてはならない。
( 4 ) ある時間内に応答しなくてはならない。 発明の鬨示 本発明は、 上述の実情に鑑みてなされたものであり、 口ポット装置自体の自律 性を損なうことなく、 上述の種々の問題を解決することができるロポヅ ト装置及 びそのロボッ ト装置の顔識別方法、 並びに画像識別装置及び画像識別方法を提供 することを目的としている。
本発明に係る'ロボット装置は、 上述の課題を解決するために、 撮像手段.により 撮像された画像内で変化する顔を追跡する顔追跡手段と、 顔追跡手段による顔の 追跡情報に基づいて、 撮像手段により撮像された画像内の顔の顔デ一夕を検出す る顔デ一タ検出手段と、 顔データ検出手段が検出した顔デ一夕に基づいて、 特定 顔を識別する顔識別手段とを備える。
このロボット装置は、 画像内で変化する顔を追跡しながら当該顔の顔デ一夕を 検出して、 検出した顔データに基づいて、 特定顔を特定する。
また、 本発明に係る顔識別方法は、 上述の課題を解決するために、 撮像工程に て撮像された画像内で移動する顔を追跡する顔追跡工程と、 顔追跡工程による顔 の追跡情報に基づいて、 撮像工程にて撮像された画像内の顔の顔デ一夕を検出す る顔データ検出工程と、 顔デ一夕検出工程にて検出した顔データに基づいて、 特 定人物を識別する人物識別工程とを有する。
このような顔識別方法は、 画像内で変化する顔を追跡しながら当該顔の顔デー 夕を検出して、 検出した顔デ一夕に基づいて、 特定顔を特定する。
また、 本発明に係る画像識別装置は、 上述の課題を解決するために、 予め顔画 像が記憶された登録顔画像記憶手段と、 外部から所定の画像が入力される画像入 力手段と、 上記画像入力手段から入力された顔画像を色情報に基づいて追跡する 顔画像追跡手段と、 上記顔画像追跡手段による追跡結果から算出される上記入力 顔画像の顔の推定位置について、 サポートベクターマシーンを用いて顔の検出を 行う顔検出手段と、 上記顔検出手段により検出された顔と上記登録顔画像記憶手' 段に記憶されている顔画像とを比較することにより人物識別を行う人物識別手段 とを備える。
この画像識別装置は、 外部から入力された顔画像を色情報に基づいて追跡'しな がら当該顔のデータを検出し、 検出した顔データと登録顔画像記憶手段に記憶さ れている顔画像とを比較することにより人物識別を行う。
また、 本発明に係.る画像識別方法は、 上述の課題を解決するために、 外部.から 所定の画像が入力される画像入力工程と、 上記画像入力.工程にて入力.された顔画 像を色情報に基づいて追跡する顏画像追跡工程と、 .上記顔画,像:追跡工程における 追跡結果から算出される上記入力顔画像の顔の推定位置について、' サポートぺク 夕一マシーンを用いて顔の検出を行う顔検出工程と、 上記顔検出工程にて検出さ れた顔と予め顔画像が記憶された登録顔画像記憶手段に記憶されている顔画像と を比較することにより ·'人物識別を行う人物識別工程とを有する。
このような画像識別方法は、 外部から入力された顔画像を色情報に基づいて追 跡しながら当該顔のデータを検出し、 検出した顔データと登録顔画像記憶手段に 記憶されている顔画像とを比較することにより人物識別を行う。
本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1は、 本発明の実施の形態であるロボツト装置の外観構成を示す斜視図であ る。
図 2は、 上述のロボット装置の回路構成を示すブロック図である。
図 3は、 上述のロボット装置のソフトウエア構成を示すブロック図である。 図 4は、 上述のロボヅト装置のソフトウエア構成におけるミ ドル · ウェア ' レ ィャの構成を示すプロック図である。
図 5は、 上述のロボヅ ト装置のソフトウエア構成におけるアプリケーション · レイヤの構成を示すプロヅク図である。
図 6は、 上述のアプリケーシヨン ' レイヤの行動モデルライブラリの構成を示 すブロック図である。
図 Ίは、 ロボッ ト装置の行動決定のための情報となる有限確率ォートマトンを 説明するために使用した図.である。
図 8は、 有限確率ォ一トマトンの各ノ一ドに用意された状態遷移表を示す図で ある。
図 9は、 顔識別における各処理の説明に使用した図である。
図 1 0は、 顔のトラッキングの説明に使用した図である d
図 1 1は、 顔検出処理及び顔識別処理に:おいて行われる入力画像内から顔が切 り出されモーフィングされるまでの処理の説明に使用した図である。
図 1 2は、 顔識別処理において行われる顔の差分画像を得る処理の説明に使用 した図である。 発明を実施するための最良の形態 以下、 本発明の実施の形態について図面を用いて詳細に説明する。 この実施の 形態は、 本発明を、 外観形状が犬等の動物に摸して形成されたロボット装置に適 用したものである。 ロボッ ト装置は、 外部からの情報 (例えば、 周囲環境の情報 等) や内部の状態 (例えば、 感情状態等) 等に応じて目や脚等を自律的に動作さ せることで、 動物のような仕草を表出させている。 そして、 このロボヅ ト装置は、 ユーザ (飼い主) 等の顔を識別することができるものとして構成されている。 実施の形態では、 先ず、 ロボッ ト装置の構成について説明して、 その後、 ロボ ッ ト装置における本発明の適用部分とされる顔識別について詳細に説明する。
( 1 ) 本実施の形態によるロボッ ト装置の構成
図 1に示すように、 例えば 「犬 I を模した形状のいわゆるぺッ トロボットとさ れ、 胴体部ユニッ ト 2の前後左右にそれぞれ脚部ユニット 3 A, 3 B, 3 C, 3 Dが連結されると共に、 胴体部ュニツ ト 2の前端部及び後端部にそれそれ頭部ュ ニヅ ト 4及び尻尾部ュニッ ト 5が連結されて構成されている。
胴体部ユニッ ト 2には、 図 2に示すように、 CPU (Central Processing Uni t) 10、 'DRAM (Dynamic Random Access Memory) 1 1、 フラヅシュ ROM (Read Only Memory) 1 2、 P C (Personal Co聊 ter).カードインターフエ一 ス回路 1 3及び信号処理回路 14が内部バス 1 5を介して相互に接続されること により形成されたコントロ一ル部 1 6と、 このロボヅ ト装置 1の動力源としての ノ、"ヅテリ 1 7とが収納されている。 また、 胴体部ュニヅ ト 2には、 ロボヅ ト装置 1の向きや動きの加速度を検出するための角速度センサ 1 8.及び加速度センサ 1 9なども収納されている。
また、 頭部ユニッ ト 4には、 外部の状況を撮像するための C CD (Charge Gou pled Device) カメラ 2.0と、 使用者からの 「撫で:る」'や 「叩く」 といった物理的 な働きかけにより受けた圧力を検出するための夕ツチセンサ 2 Γと、 '前方に位置 する物体までの距離を測定するための距離センサ 22と 外部音を集音するため のマイクロホン 23と、 鳴き声等の音声を出力するためのスピーカ 24と、 ロボ ヅ ト装置 1の 「目」 に相当する L E D (Light Emitting Diode) (図示せず) な どがそれそれ所定位置に配置されている。 ここで、 C CDカメラ 20は、 顔識別 において顔画像を撮像する撮像手段を構成する。
さらに、 各脚部ュニヅ ト 3 A〜 3 Dの関節部分や各脚部ュニッ ト 3 A〜3 D及 び胴体部ュニッ ト 2の各連結部分、 頭部ュニ、 ト 4及び胴体部ュニッ ト 2の連結 部分、 並びに尻尾部ュニッ ト 5の尻尾 5 Aの連結部分などにはそれそれ自由度数 分のァクチユエ一夕 2 5 〜 2 5 n及びポテンショメータ 2 61〜2 6 nが配設され ている。 例えば、 ァクチユエ一夕 25 i〜 2 5 nはサーボモータを構成として有し ている。 サーボモ一夕の駆動により、 脚部ュニヅ ト 3 A~ 3 Dが制御されて、 目 標の姿勢或いは動作に遷移する。
そして、 これら角速度センサ 1 8、 加速度センサ 1 9、 夕ヅチセンサ 21、 距 離センサ 22、 マイクロホン 23、 スピーカ 24及ぴ各ポテンショメ一夕 2 6 ι~ 26nなどの各種センサ並びに: LED及び各ァクチユエ一夕 25 〜2 5nは、 そ れそれ対応するハブ 27 〜27ηを介してコントロール部 16の信号処理回路 1 4と接続され、 C CDカメラ 20及びバッテリ 1 7は、 それそれ信号処理回路 1 と直接接続されている。
信号処理回路 14は、 上述の各センサから供給されるセンサデ一夕や画像デ一 夕及び音声データを順次取り込み、 これらをそれそれ内部バス 1 5を介して DR AM 1 1内の所定位置に順次格納する。 また信号処理回路 14は、 これと共にバ ッテリ 1 7から供給されるバッテリ残量を表すバッテリ残量データ-を順次取り込 み、 これを DJTAM 1 1内の所定位置に格納する。
このようにして DRAM 1 1に格納された各センサデ一夕、 画像デ一夕、 音声 データ及びバッチリ残量デ—夕は、 この後 CPU 10がこのロポヅ ト装置 1·の動 作制御を行う際に利用される。
実際上 CPU 1 0は、 ロボット装置 1の電源が投入された初期時、 胴体部ュニ ヅト 2の図示しない P Cカー スロヅ トに装填されたメモリカード.28'又はブラ ヅシュ R OM 1 2に格納された制御プログラムを P Cカードインタ一フ iース回 路 1 3を介して又は直接読み出し、 これを DRAM 1 1に格納する。
また、 CPU 1 0は、 この後上述のように信号処理!]路 14より DRAM 1 1 に順次格納される各センサデータ、 画像データ、 音声デ一夕及びバッテリ残量デ 一夕に基づいて自己及び周囲の状況や、 使用者からの指示及び働きかけの有無な どを判断する。
さらに、 CPU 10は、 この判断結果及び DRAM 1 1に格納した制御プログ ラムに基づいて続く行動を決定すると共に、 当該決定結果に基づいて必要なァク チユエ一夕 25 !〜25 nを駆動させることにより、 頭部ュニヅト 4を上下左右に 振らせたり、 尻尾部ュニット 5の尻尾 5 Aを動かせたり、 各脚部ュニッ ト 3 A〜 3 Dを駆動させて歩行させるなどの行動を行わせる。
また、 この際 CPU 1 0は、 必要に応じて音声データを生成し、 これを信号処 理回路 14を介して音声信号としてスピーカ 24に与えることにより当該音声信 号に基づく音声を外部に出力させたり、 上述の LEDを点灯、 消灯又は点滅させ る。
このようにしてこのロボット装置 1においては、 自己及び周囲の状況や、 使用 者からの指示及び働きかけに応じて自律的に行動し得るようになされている。 ( 2 ) 制御プログラムのソフトウェア構成
ここで、 ロボヅ ト装置 1における上述の制御プログラムのソフ トウエア構成は、 図 3に示すようになる。 この図 3において、 デバイス ' ドライノ · レイヤ 3 0は、 この制御プログラムの最下位層に位置し、 複数のデバイス · ドライバからなるデ バイス · ドライノ ·セッ ト 3 1から構成されている。 この場合、 各デバイス · ド ライバは、 C C Dカメラ 2 0 (図 2 ) や夕イマ等の通常のコンピュータで用いら、 れるハ一ドウエアに直接アクセスすることを許されたォブジェクトであり、 対応 するハ一ドウエアからの割り込みを受けて処理を行う。
また、 ロボティヅク 'サ バ 'オブジェクト 3 2は、 デバイス ' ドライノ ' レ ィャ 3 0の最下位層に位置し、 例えば上述の各種センサゃァクチユエ.一夕 2 5 ί〜 2 5 η等のハードウェアにアクセスするためのィン夕ーフェースを提供するソフト ゥヱァ群でなるバ一チ.ャル · 口ボヅト 3 3と、 電源の切換えなどを管理するソフ 卜ウェア群でなるパワーマネージ 3 4と、 他の種々のデバイス · ドライバを管 理するソフトウェア群でなるデバィス · ドライバ 'マネージャ 3 5と、 ロボヅト 装置 1の機構を管理するソフトウヱァ群でなるデザィンド ' ロボッ ト 3 6とから 構成されている。
マネージャ . オブジェク ト 3 7は、 オブジェクト 'マネージャ 3 8及ぴサービ ス .マネージャ 3 9から構成されている。 オブジェクト ·マネージャ 3 8は、 口 ボティヅク ·サーバ .オブジェクト 3 2、 ミ ドル · ウェア · レイヤ 4 0、 及ぴァ プリケーシヨン · レイヤ 4 1に含まれる各ソフ トウヱァ群の起動や終了を管理す るソフトウェア群であり、 サ一ビス ·マネージャ 3 9は、 メモリカード 2 8 (図 2 ) に格納されたコネクションファイルに記述されている各オブジェクト間の接 続情報に基づいて各オブジェクトの接続を管理するソフトウヱァ群である。
ミ ドル . ウェア . レイヤ 4 0は、 ロボティヅク ·サーバ 'オブジェクト 3 2の 上位層に位置し、 画像処理や音声処理などのこのロボッ ト装置 1の基本的な機能 を提供するソフ トウェア群から構成されている。 また、 アプリケーション ' レイ ャ 4 1は、 ミ ドル . ウェア ' レイヤ 4 0の上位層に位置し、 当該ミ ドル ' ウェア ' レイヤ 4 0を構成する各ソフトウエア群によって処理された処理結果に基づい て口ポヅト装置 1の行動を決定するためのソフトウヱァ群から構成されている。 なお、 ミ ドル ' ウェア, レイヤ 4 0及びアプリケーション ' レイヤ 4 1の具体 なソフトウエア構成をそれぞれ図 4に示す。
ミ ドル · ウェア · レイヤ 4 0は、 図 4に示すように、 騒音検出用、 温度検出用、 明るさ検出、用、 音階認識用、 距離検出用、 姿勢検出用、 夕ッ 'チセンサ用、 動き検 出用及び色認識用の各信号処理モジュ一ル 5 0〜 .5 8並びに入力セマンティクス コンバ一夕モジュール 5 9などを有する認識系 6 0と、 出力セマンティクスコン バー夕モジュール 6 8並びに姿勢管理用、 トラッキング用、 モーション再生用、 歩行用、 転倒復帰用、 L E D点灯用及び音再生用の各信号処理モジュール 6 1〜
6 7な.どを有する出力.系 6 9 .とから構成されている。
認識系 6. 0iの各信号処理モジュール 5 0〜 5 8は、 ロボティック ·サーバ ·ォ ブジェクト 3 2のバーチャル ' ロボヅト 3 3により D R A M 1 1 (図 2 ) から読 み出される各センサ.デ 夕や画像デ一夕及び音声データのうちの対応^ Tるデ一夕 を取り込み、 当該デ 夕に基づいて所定の処理を施して、 処理結果を入力セマン ティクスコンバ一夕モジュール 5 9に与える。 ここで、 例えば、 バーチャル ' 口 ボッ ト 3 3は、 所定の通信規約によって、 信号の授受或いは変換をする部分とし て構成されている。
入力セマンティクスコンバ一夕モジュール 5 9は、 これら各信号処理モジユー ル 5 0〜 5 8から与えられる処理結果に基づいて、 「うるさい」 、 「暑い」 、 「明るい」 、 「ボールを検出した」 、 「転倒を検出した」 、 「撫でられた」 、 「叩かれた」 、 「ドミソの音階が聞こえた」 、 「動く物体を検出した」 又は 「障 害物を検出した」 などの自己及び周囲の状況や、 使用者からの指令及び働きかけ を認識し、 認識結果をアプリケーション · レイヤ 4 1 (図 2 ) に出力する。
アプリケーション . レイヤ 4 1は、 図 5に示すように、 行動モデルライブラリ
7 0、 行動切換モジュール 7 1、 学習モジュール 7 2、 感情モデル 7 3及び本能 モデル 7 4の 5つのモジュールから構成されている。
行動モデルライブラリ 7 0には、 図 6に示すように、 「バッテリ残量が少なく なった場合」 、 「転倒復帰する」 、 「障害物を回避する場合」 、 「感情を表現す る場合」 、 「ボールを検出した場合」 などの予め選択されたいくつかの条件項目 にそれそれ対応させて、 それそれ独立した行動モデル 7 0 i〜7 O nが設けられて いる。
そして、 これら行動モデル 7 0 i〜7 O nは、 それそれ入力セマンティクスコン バータモジュール 5 9から認識結果が与えられたときや、 最後の認識結果が与え られてから一定時間が経過したときなどに、 必要に応じて後述のように感情モデ ル 7 3に保持されている対応する情動のパラメ一夕値や、 本能モデル 7 4に保持 されている対応す.る欲求のパラメ一夕値を参照しながち続く行動をそれそれ決定 し、 決定結果を行動切換モジュール 7 1に出力する。
なお、 この実施の形態の場合、 各行動モデル 7 0 i〜 7 0 nは、 次の行働を決定 する手法として、 図 7に示すような 1つのノード (状態) NO DE。〜NOD En から他のどのノ一.ド NOD E。〜NOD Enに遷移するかを各ノード. NO D E (!〜 N
〇 D Enに間を接続するアーク AR C i〜AR Cnに対してそれそれ設定された遷移 確率 p 1〜pnに基づいて確率的に決定する有限確率ォートマトンと呼ばれ.るアル ゴリズムを用いる。
具体的に、 各行動モデル 7 0 〜 7 0 nは、 それそれ自己の行動モデル 7 0 ~ 7 0 nを形成するノ ド NOD E。〜NOD Enにそれぞれ対応させて、 これらノード NOD E。〜NOD Enごとに図 8に示すような状態遷移表 8 0を有している。 この状態遷移表 8 0では、 そのノード] SiOD E。〜NOD Enにおいて遷移条件 とする入力イベント (認識結果) が 「入力イベント名」 の列に優先順に列記され、 その遷移条件についてのさらなる条件が 「デ一夕名」 及び 「デ一夕範囲」 の列に おける対応する行に記述されている。
したがって、 図 8の状態遷移表 8 0で表されるノード NOD E i。。では、 「ポー ルを検出 (BA L L) 」 という認識結果が与えられた場合に、 当該認識結果と共 に与えられるそのボールの 「大きさ (S I Z E) 」 が 「0から 1000」 の範囲である ことや、 「障害物を検出 (OB S TA C L E) 」 という認識結果が与えられた場 合に、 当該認識結果と共に与えられるその障害物までの 「距離 (D I S T AN C E) 」 が 「0から 100」 の範囲であることが他のノードに遷移するための条件とな つている。
また、 このノード NOD E !。。では、 認識結果の入力がない場合においても、 行 動モデル 7 (^〜ァ 0nが周期的に参照する感情モデル 7 3及び本能モデル 7 4に それそれ保持された各情動及び各欲求のパラメ一タ値のうち、 感情モデル 7 3に 保持された 「喜び (J O Y) 」 、 「驚き (S URP R I S E) j 若しくは 「悲し み (SUD NE S S) 」 のいずれかのパラメ一夕値が 「50から 100」 の範囲である ときには他のノ一ドに遷移することができるようになつている。
また、 状態遷移表 8 0では、 「他のノードへの遷移確率」 の欄における 「遷移 先ノード」 の行にそのノード NOD E。〜 N〇D Enから遷移できるノード名が列 記されていると共に、 「入力イベント名」 、 「デ一夕値」 及び 「デ一夕の範囲」 の列に記述された全ての条件が揃ったときに遷移できる他の各ノード N 0 D E。〜 N〇 D Enへの遷移確率が 「他のノ一ドへの遷移確率」.の欄内の.対応する箇所にそ れそれ記述され、 そのノード, NOD E。〜N〇D Enに遷移す..る際に出力すべき行 動が 「他のノードへの遷移確率」 の欄における 「出力行動」 の行に記述され.てい る。 なお、 「他のノードへの遷移確率」 の欄における各行の確率の和は 1 0 0 [%] となっている。
したがって、 図 8の状態遷移表 8 0で表されるノード N Q D E !QQでは、 例えば 「ボールを検出 (B A L L ) 」 し、 そのボールの 「S I Z E (大きさ) 」 が 「0か ら 1000」 の範囲であるという認識結果が与えられた場合には、 「30. [%] 」 の確 率で 「ノード NOD E 12。 (node 120) 」 に遷移でき、 そのとき 「A C T I ON 1」 の行動が出力されることとなる。
各行動モデル 7 0 !〜 7 O nは、 それそれこのような状態遷移表 8 0として記述 されたノード NOD E。〜 NOD Enがいくつも繋がるようにして構成されており、 入力セマンティクスコンバータモジュール 5 9から認識結果が与えられたときな どに、 対応するノード NO D E。〜NOD Enの状態遷移表を利用して確率的に次 の行動を決定し、 決定結果を行動切換モジュール 7 1に出力するようになされて いる。
図 5に示す行動切換モジュール 7 1は、 行動モデルライブラリ 7 0の各行動モ デル 7 0 i〜7 0nからそれぞれ出力される行動のうち、 予め定められた優先順位 の高い行動モデル 7 0 !〜 7 0 nから出力された行動を選択し、 当該行動を実行す べき旨のコマンド (以下、 これを行動コマンドという。 ) をミ ドル ' ウェア ' レ ィャ 4 0の出力セマンティクスコンバータモジュール 6 8に送出する。 なお、 こ の実施の形態においては、 図 6において下側に表記された行動モデル 7 0 1 ~ 7 0 nほど優先順位が高く設定されている。
また、 行動切換モジュール 7 1は、 行動完了後に出力セマンティクスコンパ一 夕モジュール 6· 8から与えられる行動完了情報に基づいて、 その行動が完了した ことを学習モジュール 7 2、 感情モデル 7 3及び本能モデル 7 4に通知する。 一方、 学習モジュール.7 2は、 入力セマンティクスコンバータモジュール 5 9 から与えられる認識結果のうち、 「叩かれた」 や 「撫でられた」 など、 使用者か らの働きかけとして受けた教示の認識結果を入力する。
そして、 学習モジュール 7 2は、 この認識結果及び行動切換モジュール 7 1か らの通知に基づいて、 「叩かれた (叱られた).」 ときにはその行動の発現確率を 低下させ、 「撫でられた . (誉められた) 」 ときにはその行動の発現確率を上昇さ せるように、' 行動モデル.ライブラリ 7 0における対応する行動モデル 7 .0 i〜 7 0 nの対応する遷移確率を変更する。
他方、 感情モデ 7 3は、 「喜び (joy) 」 、 「悲しみ (sadness) j 、 「怒り (anger) 」 、 「驚き (surprise) 」 、 「嫌悪 (disgust) 」 及び 「恐れ (fea r) 」 の合計 6つの情動について、 各情動ごとにその情動の強さを表すパラメ一夕 を保持している。 そして、 感情モデル 7 3は、 これら各情動のパラメータ値を、 それぞれ入力セマンティクスコンパー夕モジュール 5 9から与えられる 「叩かれ た」 及び 「撫でられた」 などの特定の認識結果と、 経過時間及び行動.切換モジュ ール 7 1からの通知などに基づいて周期的に更新する。
具体的には、 感情モデル 7 3は、 入力セマンティクスコンバータモジュール 5 9から与えられる認識結果と、 そのときのロボッ ト装置.1の行動と、 前回更新し てからの経過時間などに基づいて所定の演算式により算出されるそのときのその 情動の変動量を Δ Ε [ t ] 、 現在のその情動のパラメ一夕値を E [ t ] 、 その情 動の感度を表す係数を k eとして、 ( 1 ) 式によって次の周期におけるその情動の パラメータ値 E [ t + 1 ] を算出し、 これを現在のその情動のパラメ一夕値 E [ t ] と置き換えるようにしてその情動のパラメータ値を更新する。 また、 感情 モデル 7 3は、 これと同様にして全ての情動のパラメ一夕値を更新する。 E t + 1 E t + ke x AE (1 )
なお、 各認識結果や出力セマンティクスコンバータモジュール.6 8からの通知 が各情動のパラメ一タ値の変動量 Δ Ε [ t ] にどの程度の影響を与えるかは予め 決められて.おり、 例えば 「叩かれた」 といった認識結果は '「怒り」 の情軌の.'バラ メ一夕値の変動量厶; E . [ t ] に大きな影響を与え、 「撫でちれた」 というた認識. 結果は 「喜び」 の情動のパラメータ値の変動量 Δ Ε [ t ] に大.きな影響を与える ようになつている。.
ここで、 出力セマンティクスコンパ '"タモジュール 6 8からの通知とは、 いわ ゆる行動のフィードバック情報 (行動完了情報) であり、 行動の出現結果の情報 であり、 '感情モデル 7 3は、 このような情報によっても感情を変化させる。 これ は、 例えば、. 「吠える」 といった行動により怒りの感情レベルが下がるといった ようなことである。'なお、 出力セマンティクスコンバ一夕モジュール 6 8からの 通知は、 上述した学習モジュール 7 2にも入力されており、 学習モジュール 7 2 は、 その通知に基づいて行動モデル 7 0 i〜 7 0 nの対応する遷移確率を変更する。 なお、 行動結果のフィードバックは、 行動切換モジュール 7 1の出力 (感情が 付加された行動) によりなされるものであってもよい。
一方、 本能モデル 7 4は、 「運動欲 (exerci se) 」 、 「愛情欲 (affecti on) 」 、 「食欲 (appetite) 」 及び 「好奇心 (curios i ty) 」 の互いに独立した 4つの欲求 について、 これら欲求ごとにその欲求の強さを表すパラメ一夕を保持している。 そして、 本能モデル 7 4は、 これらの欲求のパラメータ値を、 それそれ入力セマ ンティクスコンバ一夕モジュール 5 9から与えられる認識結果や、 経過時間及び 行動切換モジュール 7 1からの通知などに基づいて周期的に更新する。
具体的には、 本能モデル 7 4は、 「運動欲」 、 「愛情欲」 及び 「好奇心」 につ いては、 認識結果、 経過時間及び出力セマンティクスコンバータモジュール 68 からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の 変動量を Δ Ι [k] 、 現在のその欲求のパラメ一タ値を I [k] 、 その欲求の感 度を表す係数 kiとして、 所定周期で (2) 式を用いて次の周期におけるその欲求 のパラメータ値 I [k+ 1 ] を算出し、 この演算結果を現在のその欲求のパラメ . 一夕値 I [k] と置き換えるようにしてその欲求のパラメ一夕値'を更新する。 ま た、 本能モデル 74は、 これと同様にして 「食欲」 を除.く各欲求のパラメ一タ値 を更新する。
k + l] = I [k] + ki x ΔΙ [k] (2)
なお、 認識結果及び出力セマンティクスコンバータモジュール 68からの通知 などが各欲求の.パラメ一夕値の変動量△ I [k] にどの程度の影響を与えるかは 予め決められており、 例えば出力セマンティクスコンバ一タモジュール 68から の通知は、 「疲れ」 のパラメータ値の変動量 Δ I [k〕 に大きな影響を与えるよ うになつている。
なお、 本実施の形態においては、 各情動及び各欲求 (本能) のパラメ一タ値が それぞれ 0から 100までの範囲で変動するように規制されており、 また係数 ke、 k iの値も各情動及び各欲求ごとに個別に設定されている。
一方、 ミ ドリレ ' ウェア ' レイヤ 40の出力セマンティクスコンバータモジユー ル 68は、 図 4に示すように、 上述のようにしてアプリケーション ' レイヤ 41 の行動切換モジュール 7 1から与えられる 「前進」 、 「喜ぶ」 、 「鳴く」 又は 「トラヅキング (ボールを追いかける) 」 といった抽象的な行動コマンドを出力 系 69の対応する信号処理モジュール 6 1〜 67に与える。
そしてこれら信号処理モジュール 6 1 ~ 67は、 行動コマンドが与えられると 当該行動コマンドに基づいて、 その行動を行うために対応するァクチユエ一夕 2 5 !〜2 5 n (図 2 ) に与えるべきサ一ボ指令値や、 スピーカ 2 4 (図 2 ) から出 力する音の音声データ及び又は 「目」 の L E Dに与える駆動データを生成し、 こ れらのデータをロボティヅク .サーバ ·オブジェクト 3 2のバ一チャル ' ロボヅ ト 3 3及び信号処理回路 1 4 (図 2 ) を順次介して対応するァクチユエ一夕 2 5 i〜 2 5 η又はスピ一力 2 4又は L E Dに順次送出する。
このようにしてロボット装置 1においては、 制御プログラムに基づいて、 自己 (内部) 及び周囲 (外部) の状況や、 使用者からの指示及び働きかけに応じた自 律的な行動を行うことができるようになされている。
( 3 ) ロボッ ト装置による顔識別
( 3— 1 ) ロボット装置に適用される顔識別の原理
上述したように、 ロボッ ト装置 1は、 外部からの情報や内部の状態に応じて自 律的に行動する。 このようなロボット装置 1において、 従来における顔識別の問 題点の解決と、 顔識別のタスクを遂行とを、 次の 3つの技術により実現'している <
( i ) 複雑なシーンからの顔の検出
( i i ) 顔の実時間トラッキング
( i i i ) 顔の識別
顔の検出手法は、 対象物の識別に色、 動き及びパターンを使うものに大別でき るが、 複雑なシーンの中から精度良く顔を切り出すためには顔のパターンを使う のが最も高性能である。 しかしながら、 シーン全体にわたり全てのスケールの顔 を探索するのは、 非常に処理が重いため、 従来より、 この手法は静止画に対して しか用いられていない。
その一方で、 実時間で顔を検出するシステムのほとんどは肌色の検出を行って いる。 しかし、 色は照明条件により変化してしまうし、 肌色にも人種や個人差が あるため、 単純な肌色認識のみでは有効な手段となり得ない。
そこで、 本発明の適用により、 検出した顔パターンに含まれる色分布を元に顔 の実時間トラッキングを行い、 その動的変化に顔検出を適応していく手法を取る, また、 推定した色分布から求めた顔領域に対してのみ、 顔パターンの探索を行う < これにより、 顔検出における演算時間の短縮を図る。 さらに、 顔の識別には、 パターン探索により切り出した顔画像を用いて行う。 そして、 トラッキングに成功している間は同じ顔の識別結果として扱うことで複 数の識別結果から総合的な判断を下すことを可能としている。
例えば、 図 9に示すように、 ロボヅ ト装置 1において行う顔識別のための処理 は、 (i ) 複雑なシーンからの顔の検出を、 輝度パターンによる顔の検出 (顔認 識) により.行い、 (i i) 顔の実時間トラッキングを、 色による.顔の追跡 (顔のト . ラヅキング) により行い、 そして、 (i i i) 顔の識別を、 差分顔を利用した人物識 別を行っている。
例えば、 ロボッ ト装置 1におけるこのような各処理は、 モジュール或いはォブ ジェク トとして実現される。.すなわち、 ロボット装置 1は、 図 9に示すように、 顔の追跡モジュール M 2、 顔の検出モジュール M i及び顔の識.別モジュール M.3を.備 える。 ここで、 顔の追跡モジュール M 2は、 C C Dカメラ 2. 0に撮像された画像内 で変化する顔を追跡する顔追跡手段と'して機能し、 顔の検出モジュール M iは.、 顔 の追跡モジュール M 2による顔の追跡情報に基づいて、 撮像手段により撮像された 画像内の顔の顔データを検出する顔データ検出手段として機能し、 顔の識別モジ ユール M 3は、 顔の検出モジュール M iが検出した顔データに基づいて、 特定顔を 識別する顔識別手段として機能する。
ここで、 輝度パターンによる顔の検出では、 入力画像中から顔を検出 (認識) する処理を行う。 具体的には、 この顔の検出では、 サポートベクタ一マシン (S V M) による顔、 非顔の識別を行う。 この処理は、 通常、 環境変化に強く、 計算 量が多く、 姿勢変化に弱いといった特徴がある。 ここで、 環境変化としては、 例 えば、 周囲の照明の変化が挙げられる。
また、 色による顔の追跡では、 入力画像中の顔を追跡する処理を行う。 具体的 には、 この顔の追跡では、 顔の色分布の推定、 顔領域の推定を行う。 この処理は、 通常、 環境変化に弱く、 計算量が少なく、 姿勢変化に強いといった特徴がある。 また、 人物識別では、 上述の顔の検出により認識された顔を特定の顔として識 別する処理を行う。 具体的には、 この人物識別では、 目、 鼻の位置同定から位置 合わせ (モーフイング) を行い、 差分顔 P C Aから同一人物判定を行う。
顔識別のシステムでは、 以上のような処理を顔識別における各工程として適宜 分担させ、 相互に補完しあう関係とすることで、 精度を高くした顔検出を可能と している。 例えば、 次のように各処理が補完しあう関係とされている。
例えば、 図 9に示すように、 色による顔の追跡では環境変化に弱いが、 輝度パ ターンによる顔の検出では環境に強いことを利用することで補完している。 逆に、 輝度パターンによる顔の検出では計算量が多く、 姿勢変化に弱いが、 '色による顔 の追跡が計算量が少なく、 姿勢変化.に強いことを利用することが補完している。 'すなわち、 概略すれば次のように言える。 もともと計算量が多い処理とされる 顔の検出を実時間で行うことは困難である。 しかし、 所定のタイミングにより一 定期間行うとすれば、 計算量の負担は軽減される。 一方で、 各タイミングにおい て入力画像内から顔の位置まで毎回検出したのでは、 負担が大きい。
そこで、 計算量が少なぐ、. 姿勢変化に強い処理を利用して、, 入力画像内の顔の 変化を実時間で追跡して、 この追跡結果から得られる入力画像内の顔の推定位置 についてだけ顏を検出する'処理をすることとすれば、 顔の位置を特定した状態で' の顔の検出が可能になる。 すなわち、 大雑把ではあるが早い処理と、 信頼性は高 いが遅い処理とを組み合わせて、 役割を分担することで、 システム全体において は各処理相互間で補完させ、 これにより、 協調して実時間による顔検出を可能と している。
これにより、 多くの顔検出結果を短時間で獲得でき、 この獲得した顔検出結果 に基づいて顔の識別を行い、 そのような処理を統計的に処理することで、 高精度 の顔識別を可能にしている。
ロボッ ト装置 1は、 このような顏識別のシステムにより、 シーン中から人間を 見つけ出し (顔検出処理) 、 それを注視し (顔のトラヅキング処理) 、 そこから 得られた情報を用いた顔の識別による人物の特定 (顔識別処理) に至るまで、 全 ての処理を自動的に行い、 信頼性の高い顔識別を実現している。 これによりロボ ヅト装置と人間との間で自然なインタラクションが可能になる。 以下、 顔の検出、 顔の追跡及び顔の識別の各処理について具体的に説明する。
( 3 - 2 ) 顔の検出
顔の検出については、 パ夕ーン認識の分野で現在最も学習汎化能力が高いと期 待され、 注目を集めているサポートベクタ一マシン (S V M ) を用いて顔と非顔 の識別を行っている。 , このような技術としては、 B . Sholkopfらの報告 (B. Sholkopf , C .Burges, A. Sm ola, "Advance in Kernel Methods Support Vector Learning", The MIT Press, 1999. ) や V.Vapnikの報告 (V.Vapnik, "The Nature of Statistical Learning Th eory Second Edition" , Springer, 1999. ) に鬨示されている技術が挙げられる。 本願発明者が行つた予備実験の結果からは、 この手法が主成分分析やニューラル ネットワークを用いる手法と比べ、 良好な結果を示すことが分かっている,。
上述の S V Mは、 識別関数に線形識別器(パーセプトロン)を用いた学習機械で あり、 カーネル関数を使うことで非線形空間に拡張することができる。 また、 識 別関数の学習では,、 クラス間分離のマージンを最太にとるよ:うに.行われ、 その解 は二次数理計画法を解くことで得られるため、 グロ一.バ.ル解に到達できることを 理論的に保証できる。 この手法の詳細は次の通りである。 入力画像は.以下の手順 で作成する。
先ず、 シーンから 20 x 20画素の画像を切り出し、 さらに、 切り出した If像から 顔以外の背景部分を除くために画像の 4隅をマスグする。 次に、 照明による撮像 対象物の輝度が変化することを前提として、 照明による輝度の勾配を補正して、 ヒストグラム平滑化或いはコントラストノーマライゼ一'シヨンを施す。
次に、 顔検出に使用する識別関数の学習を行う。 学習用のデータとして最初に 顏データ、 非顔データそれそれ所定の枚数 (例えば、 30枚) を用いて、 先ず、 暫 定的な識別関数を得る。 それから、 このようにして暫定的に得られた識別関数を 様々なデータベース上の画像に試して顔の検出を行い、 その結果、 検出に成功し たものを顔デ一夕、 失敗したものを非顔デ一夕として学習データに追加し、 さら に学習をし直す。
例えば、 実施例としては、 数百枚の画像に対してこの処理を繰り返し、 最終的 に顏デ一夕 389枚、 非顔データ 576枚を蓄積することができた。 また、 これらの顔 データは全員ほぼ正面を向いていること以外は、 人種、 表情、' 髪型、 眼鏡、 ひげ、 照明条件等の違いを含んでおり、 これにより、 これらの条件に左右されない識別 器 (例えば、 識別モジュール) の学習が期待できる。 この結果、 得られた所定の サポ一トベクタ一、 例えば 255本のサポートベクターを用いる。 以上のような顔の検出は、 後で詳述する顔の追跡処理により追従されている画 像内の顔部分と推定される領域についてその処理を実施する。 すなわち、 顔の検 出では、 顔の追跡処理により限定された検索領域に対してのみ処理を実施する。 これにより、 信頼性の高い顔の検出処理を短時間で実行可能としている。
また、 この顔の検出処理は、 上述したように、 ロボヅ ト装置 1においてモジュ —ル或いはオブジェクトとして構成される。
( 3 - 3 ) 顔の追跡
顔の追跡は、 画像中で変化 (特に移動) する顔を連続的に追従して、 上述の顔 の検出において顔の検出のための処理がなされる検索領域を限定するためのもの である。 特に、 自律的に行動するロボッ ト装置 1のような場合には、 画像内.にお ける顔の位置等が変化.することから、 このような画像内の顔の追従処理は顔識別 において効果的に作用する。 '
この顔の追跡では、 演算量の少なさ、 顔の姿勢変化ゃォクル一ジョン:に対する. 強さを考慮し、 色領域の追跡をベースに行う。
例えば、 Yangらの報告 (J.Yang, .Lu, A. Waibel /'Skin-Color Modeling and Adaptation" , Technical Report of CMU, CMU-CS-97-146,' 1997. ) によれば、 肌 色の分布は輝度で正規化された (3 ) 式及び (4 ).式により得られる (r, g ) 平面上で、 人物や人種に依らず正規分布に近い分布となることが実験的に知られ ている。
r = R
R + G + B (3)
g = R + G + B … (4) また、 上述の Yangらはこの色空間において肌色を表す正規分布のパラメータ推 定値を、 過去に測定されたデ一夕の線形和の (5 ) 式及び (6 ) 式として表現し、 重み係数 c , ? jの更新規則を最尤推定により導出している。
μ = a, m.
.1 = 1 J J (5) a: ∑ β - S.
i = l 1 J J (6)
ここで、 ( 5 ) 式は平均であり、 (6 ) 式は分散である。 また、 m j, S jはそ れそれ、 過去の jステ.ッブ前の平均値と分散値である。 また、 rは最大履歴数で ある。
本手法では、 この定式化に基づいて肌色領域の適応的トラッキングを行う。 そ して、 本手法では、 色モデルを用いて抽出した画素に対して画像領域上でセグメ ントを行う。 具体的には、 色モデルから得られた画素に対して、 分布データを取 得するための領域を指定する楕円の大きさ、 楕円の位置、 楕円の傾き等を変化さ せ、 前フレーム中の顔の位置近傍で最も良く適合する楕円を求める。 そして、 求 めた楕円内の画素を現在の肌色の分布データとして取得する。 ここで、 分布デー 夕を取得するための楕円について、 その大きさ、 位置及び傾きを変化させるのは、 例えば、 顔までの距離が変化したこと、 顔が移動したこと、 顔が傾いたこと等に 対応するためである。
図 1 0には、 色空間と画像上位置の両方向からトラッキング制約をかける場合 の処理例を示している。 顔領域が推定される画像平面における顔領域の色分布を、 色空間上に写像する。 そして、 この色空間において、 色の分布推定によるトラ、ソ キングを行い、 色分布の時間変化を推定して、 推定色を使って、 画像平面上にお いて顔領域を推定する。
このように色空間と画像上位置の両方向からトラッキング制約をかけることで、 シーン中に似た色がある場合や照明条件が変動する場合でも比較的安定に顔の肌 色を追跡できるようになる。
以上のような顔の追跡によって、 画像内で移動等する顔を追従することができ る。 顔の検出では、 この顔の追跡によって特定される領域についてその処理を実 施しデータを得ている。 このように、 追従している領域に限定して顔の検出のた めの処理を実施することができるので、 信頼性のある処理内容であっても計算量 を少なく して実施することができ、 短時間で処理結果を得ることができるように なる。
なお、 この顔の追跡処理は、 上述したように、 ロボ.ッ.ト装置..1においてモジュ ール或いはォブジェクトとして構成される。
( 3 - 4 ) 顔の識別
顔の識別では、 上述の顔め検出によって得られた顔デ一夕を使用して、 '·特定の 顔を識別している。 具体的には、 この顔の識別では、 与えられた 2枚の顔画像に 対してその画像中の人物が同一人物か、 他人であるかの判定をすることで実現し ている。 その判定については、 2枚の顔画像の差分画像に基づい'て行っている。 なお、 この顔の識別処理は、 上述したように、 ロボッ ト装置 1においてモジユー ル或いはオブジェクトとして構成される。
具体的には、 顔の識別では、 先ず、 同一人物の 2枚の顔画像の差分を学習段階. として予め求めており、 これを参照して、 2枚の顔画像の差分結果から同一人物 か別の人物であるかを判定している。
その学習段階では、 同一人物の 2枚の顔画像の差分を求め、 同一人物の差分画 像群 (intra-personal class) を生成し、 これを固有値展開することで特徴空間 とされる intra- personal classの固有空間を獲得している。 例えば、 このような 学習手法の技術としては、 B . Moghaddamらの報告 (B. Moghaddam, W.Wahid, A.Pe ntland, "Beyond Eigenfaces : Probabi l istic Matching for Face Recognition" 3 MIT Media Lab. Perceptual Computing Section Technical Report No.443, 19 98. ) に鬨示されている技術が挙げられる。 そして、 このような学習を経て実現される顔識別の処理は次のようになる。 先 ず、 2枚の顔画像の差分を正しく得るためには顔の位置を精度良く求める必要が ある。 また、 顔の中の眼、 鼻の位置は人によって異なるため、 これらの位置を正 親化する必要もある。 例えば、 ここでは、 得られた顔画像に対し固有眼と固有鼻 のマツチングを行うことで眼と鼻の位置同定を行い、 検出された眼と鼻が定めら れた位置になるように,、 ァフィン変換で回転 '伸縮.(モーフイング処理) を行つ ている。
このようなモーフ.イング操作を経て、 入力顔画像とデータベース中の登録顔画 像デ一夕とされる顔画像との差分を生成する。 ここで、 デ一夕べ一スとして記憶 されている顔画像は、 予め登録されているもので..もよい。 さ.ちに、. データべ一ス として記憶ざれる顔画像については更新或いは新たに蓄積していくこと.もできる。 例えば、 ロボッ ト装置 1は、 画像撮像を撮像するような画像撮像モードにおい て撮像して得た顔画像を、 デ一夕ペースに新たに登録すること'もでき.る。. 例えば、 ロボット装置 1は、 ユーザの命令によって'画像を撮像する画像撮像モ ドを備え ており、 このようなユーザの命令によつて撮像した顔画像をデータベースに新た に登録することもできる。 ここで、 ユーザによる撮像命令としては、 例えば、 「顔撮って」 といつだ音声による命令等が挙げられる'。 このようにすることで、 エンターティンメント性を維持しながら、 同時に顔画像のデータべ一スの構築が 可能になる。 また、 例えば、 データベース中に予め記憶しておく顔画像としては、 各個人について正面を.向いた顔画像とする。
次に、 上述したような差分により得られた差分画像と上述の固有空間とに基づ いて、 人物を特定する。 具体的には、 差分画像と intra- personal class空間の距 離 (distance from feature space, D F F S ) 及び差分画像を intra- personal空 間に投影した点と原点からの距離 (distance in feature space, D I F S ) を計 算する。 例えば、 同一人物の差分画像が intra-personal class空間内で正規分布 をとると仮定すれば、 D F F Sと D I F Sの加算値 (D F F S + D I F S ) が分 布からの距離を表すことになる。 そして、 この距離が小さいほど同一人物である 確率が高いことになる。 このような関係を利用して、 入力顔画像と最も同一人物 確率が高いデータベース画像をシーン中の人物と判断する。 例えば、 差分値が小 さい場合には、 差分画像はメリハリなく、 いわゆるのつベりとした画像として得 られる。
さらに、 顔の追跡によるトラッキング情報を利用して上述の確率を時系列的に 蓄積している。 すなわち、 トラヅキングに成功している間は各連続シ一ンごとに ついてのこのような顔の識別結果を時系列に取得して、 このように得られる複数 の識別結果が同一人物であるとする制約の下で、 .それら識別結果を統:計的に処理 する。 この結果、 一時的な誤認識があった場合でも、 システム全体としては.、 そ の影響を受けにくいものとして、 信頼の高い顔識別.を実現する。
例えば、 ロボッ ト装置 1は、 上述したように自律的に行動しており、 撮像画像 中の顔の向きや大きさは一定であるとは言えない。 .さらに、,データべ一.スとして 予め記憶されている顔画像については、 略正面を向いた顔の数枚の顔画像を複数 人物分用意しているだけである。 ·
このような条件の下で、 顔の識別をしたのでは、 誤った識別結果を得る場合も 多い。 しかし、 トラヅキングに成功している間は各連続シーンごとに顔の識別処 理を行い、 多くの識別結果を取得して、 さらにこの識別結果が同一人物のもので あるとの制約の下で統計的に処理することにより、 一時的に誤った識別結果を得 た場合でも、 システム全体としては信頼の高い顔儎別が可能になる。
なお、 あらゆる 1人の人物についてあらゆるパターンの顔画像を持っていれば 良いのだが、 そのような横顔のデ一夕を持っていたのでは保持すべきデータ量が 膨大なものとなり、 非現実的である。
以上、 ロボッ ト装置 1に適用される顔の検出、 顔の追跡及び顔 (人物) の識別 として大別される顔識別について説明した。 この口ポッ ト装置 1においては、 S V Mによる濃淡顔パ夕一ンの検出、 肌色のモデルと顔領域の適応更新を使ったト ラッキング手法、 差分顔固有値展開を使った人物識別の 3つを組み合わせたもの により、 顔識別を行っている。 このような顔識別は、 実時間、 実環境でロバスト に動作するトータルな顔識別システムとして実現される。
以上のように、 計算量が少なく、 姿勢変化に強い処理を利用して、 入力画像内 の顔の変化を実時間で追跡して、 この追跡結果から得られる入力画像内の顔の推 定位置についてだけ顔を検出する処理をするにより、 顔の位置を特定した状態で の顔の検出処理が可能になる。 一方で、 多くの顔検出結果を短時間で獲得できる ことから、 これら顔検出結果に基づいて顔識別を行い統計的に処理することで、 高精度での顔識別を可能としている。
ロボヅト装置 1は、 このような顔識別のシステムにより、 シーン中から人間を 見つけ出し (顔検出処理) 、 それを注視し (顔のトラッキング処理) 、 そこから 得られた情報を用いた顔の識別による人物の特定 人物識別処理) に至るまで、 全ての処理を自動的に行い.、 信頼性の高い顔識別を実現する。 これによりロポッ ト装置と人間との間で自然なインタラクションが可能になる。 以下、 実施例につ いて説明する。
(3 - 5) 実施例 .
図 1 1及び図 1.2.に例として、 顔の検出から顔の識別までの 連の流れを示す。 条件としては、 例えば、 176x120の全シーンから数段階のスケーリングを考慮し た顔の検出に 5 sec程度かけ、 色のトラッキングでは 50nisec周期で実行している場 合を例としている。
図 1 1に示すように、 顔の検出処理では、 入力画像 G。から顔画像 を切り出 す。 そして、 顔画像 G2のように画像の 4隅'をマスクして、 背景部分を取り除く。 一方、 人物の特定する顔の識別処理では、 モーフイング操作をした顔画像 G3を取 得する。 そして、 このような処理は、 顔の追跡処理に応じて時系列的に行われる ようになる。
図 1 2に示すように、 顔の識別処理では、 上述したようにモーフイング操作に より得た顔画像 G 3について、 データベースに予め学習段階で得ている顔画像 D G I , DG2, DG3, · · · との差分を得る。 これにより、 差分の顔画像 SD'l5 S D2, S D3j · · ·'がそれそれ得られる。 本例では、 入力画像内に顔が含まれて いた人物は、 差分値が P =9.73e_72となったデータベースの第 3の顔画像 D G3 の人物と同一人物である確率が最も高い結果となっている。 例えば、 本実施例で は、 同一人物の画像対 169枚中 123枚 (72.8%) が同一人物であ'ると識別され、 別 人物の画像対 5609枚中 4093枚 (73.0%) が別人物であると識別する結果を得てい る。 産業上の利用可能性 上述したような本発明を用いることにより、 ロボッ ト装置は、 画像内で変化す る顔を検出しながら当該顔の顔データを検出して、 検出した顏デ一夕に基づいて、 人物を識別することができる。 したがって、 ロボッ ト装置は、 例えば多くの中か らユーザ (飼い主) を識別することができ、 エンターテインメント性が向上する,

Claims

請求の範囲
1 . 自律的に行動する口ポット装置であって、
撮像手段と、
上記撮像手段により撮像された画像内で変化する顔を追跡する顔追跡手段と、 上記顔追跡手段による顔の追跡情報に基づいて、 上記撮像手段により撮像され た画像内の顔の顔データを検出する顔デ一夕検出手段と:、
上記顔データ検出手段が検出した上記顔デ一夕に基づいて、 特定顔を識別する 顔識別手段と
を備えたことを特徴とするロボッ ト装置。
2 . 上記顔データ検出手段は、 顔と非顔とを識別するサポートベクターマシンで あること
を特徴とする請求の範囲第 1項記載のロボッ ト装置。
3 . 上記顔追跡手段は、 画像内の顔の変化として、 画像内の顔の移動或いは形の 変化のうちの少なくとも 1つを追跡すること
を特徴とする請求の範囲第 1項記載のロボッ ト装置。
4 . 上記顔追跡手段は、 色により画像内の対象物を特定して、 特定した対象物を 追跡する対象物追跡手段であって、
上記対象物追跡手段は、 所定の色により特定した対象物を上記顔として追跡す ること
を特徴とする請求の範囲第 1項記載のロボッ ト装置。
5 . 上記顔追跡手段は、 色分布を利用して当該顔を追跡すること
を特徴とする請求の範囲第 4項記載のロボッ ト装置。
6 . 上記顔追跡手段は、 上記色分布を正規化して得た正規化分布により当該顔を 追跡すること
を特徴とする請求の範囲第 5項記載のロボッ ト装置。
7 . 上記顔識別手段は、 予め得ている登録顔データと上記顏デ一夕検出手段が検 出した上記顔デ一夕との比較結果に基づいて特定顔を識別すること
を特徴とする請求の範囲第 1項記載のロボッ ト装置。
8 . 上記人物識別手段は、 上記顔データ検出手段が時系列的に出力する複数の顔 データについて得た複数の比較結果の統計により、 特定顔を識別すること を特徴とする請求の範囲第 7項記載のロボット装置。
9 . 上記顔識別手段は、 予め得ている全ての登録顔データと上記顔データ検出手 段が検出した上記顔データとを差分して得た検出差分値に基づいて特定顔を識別 すること
を特徴とする請求の範囲第 7項記載のロボット装置。
1 0 . 予め得ている登録顔データと上記顔データ検出手段により得た顔データと を差分し、 学習差分値を予め得て、 上記学習差分値により特徴空間を形成する学 習をする学習手段を備え、
上記顔識別手段は、 上記特徴空間における上記検出差分値に基づいて特定人物 を識別すること
を特徴とする請求の範囲第 9項記載のロボット装置。
1 1 . 上記登録顔データがデータベースとして記憶される記憶手段と、 画像撮像 モードにより撮像した顔画像を上記データベースに登録顔データとして記憶する 撮像モード撮像手段とを備えたこと
を特徴とする請求の範囲第 7項記載のロボット装置。
1 2 . 動物に模した外観形状をなしており、
上記撮像手段は、 上記動物の目の機能を果たすこと
を特徴とする請求の範囲第 1項記載のロボット装置。
1 3 . 撮像手段により撮像する撮像工程と、
上記撮像工程にて撮像された画像内で移動する顔を追跡する顔追跡工程と、 上記顔追跡工程による顔の追跡情報に基づいて、 上記撮像工程にて撮像された 画像内の顔の顔データを検出する顔データ検出工程と、
上記顔データ検出工程にて検出した上記顔データに基づいて、 特定人物を識別 する人物識別工程と
を有することを特徴とする顔識別方法。
1 4 . 自律的に行動するロボット装置が上記撮像手段を備えていること
を特徴とする請求の範囲第 1 3項記載の顔識別方法。
1 5 . 予め顔画像が記憶された登録顔画像記憶手段と、
外部から所定の画像が入力される画像入力手段と、
上記画像入力手段から入力された顔画像を色情報に基づいて追跡する顔画像追 跡手段と、
上記顔画像追跡手段による追跡結果から算出される上記入力顏画像の顔の推定 位置について、 サポ一トベクターマシーンを用いて顔の検出を行う顔検出手段と、 上記顔検出手段により検出された顔と上記登録顔画像記憶手段に記憶ざれてい る顔画像とを比較することにより人物識別を行う人物識別手段と
を備えたことを特徴とする画像識別装置。
1 6 . 外部から所定の画像が入力され.る画像入力工程と、
上記画像入力工程にて入力された顔画像を色情報に基づいて追跡する顔画像追 跡工程と、
上記顔画像追跡工程における追跡結果から算出される上記入力顔画像の顔の推 定位置について、 サポートベクターマシーンを用いて顔の検出を行う顔検出工程 と、
上記顔検出工程にて検出された顔と予め顔画像が記憶ざれた登録顔画像記憶手 段に記憶されている顔画像とを比較することにより人物識別を行う人物識別工程 と
を有することを特徴とする画像識別方法。
PCT/JP2001/010101 2000-11-17 2001-11-19 Dispositif robot et procede d'identification faciale, et dispositif et procede d'identification d'images WO2002041254A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/181,279 US7200249B2 (en) 2000-11-17 2001-11-19 Robot device and face identifying method, and image identifying device and image identifying method
US11/656,115 US7317817B2 (en) 2000-11-17 2007-01-22 Robot apparatus, face identification method, image discriminating method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000351897A JP4590717B2 (ja) 2000-11-17 2000-11-17 顔識別装置及び顔識別方法
JP2000-351897 2000-11-17

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10181279 A-371-Of-International 2001-11-19
US11/656,115 Continuation US7317817B2 (en) 2000-11-17 2007-01-22 Robot apparatus, face identification method, image discriminating method and apparatus

Publications (1)

Publication Number Publication Date
WO2002041254A1 true WO2002041254A1 (fr) 2002-05-23

Family

ID=18824869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/010101 WO2002041254A1 (fr) 2000-11-17 2001-11-19 Dispositif robot et procede d'identification faciale, et dispositif et procede d'identification d'images

Country Status (3)

Country Link
US (2) US7200249B2 (ja)
JP (1) JP4590717B2 (ja)
WO (1) WO2002041254A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106488197A (zh) * 2016-12-26 2017-03-08 旗瀚科技有限公司 一种智能人物识别机器人
WO2018121730A1 (zh) * 2016-12-31 2018-07-05 深圳市优必选科技有限公司 视频监控和人脸识别方法、装置及系统

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
JP3996015B2 (ja) * 2002-08-09 2007-10-24 本田技研工業株式会社 姿勢認識装置及び自律ロボット
GB2395779A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
JP2004298988A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8189927B2 (en) 2007-03-05 2012-05-29 DigitalOptics Corporation Europe Limited Face categorization and annotation of a mobile phone contact list
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
JP4470434B2 (ja) 2003-10-06 2010-06-02 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
JP2005122351A (ja) * 2003-10-15 2005-05-12 Seiko Epson Corp 顔画像候補領域検索方法及び検索システム並びに検索プログラム
JP2005134966A (ja) * 2003-10-28 2005-05-26 Seiko Epson Corp 顔画像候補領域検索方法及び検索システム並びに検索プログラム
US7564994B1 (en) 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
JP4373828B2 (ja) * 2004-03-22 2009-11-25 富士フイルム株式会社 特定領域検出方法、特定領域検出装置、およびプログラム
WO2005114576A1 (ja) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha 動作内容判定装置
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
JP4586548B2 (ja) * 2005-01-26 2010-11-24 ソニー株式会社 物体検出装置および物体検出方法
CN100458817C (zh) * 2005-07-21 2009-02-04 欧姆龙株式会社 监视装置
JP4750520B2 (ja) * 2005-09-21 2011-08-17 富士フイルム株式会社 人物画像補正装置および方法
JP2007121654A (ja) * 2005-10-27 2007-05-17 Eastman Kodak Co 撮像装置
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
US20090312869A1 (en) * 2006-06-28 2009-12-17 Nec Corporation Robot, robot control method, and robot control program
US7515740B2 (en) * 2006-08-02 2009-04-07 Fotonation Vision Limited Face recognition with combined PCA-based datasets
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
ATE472140T1 (de) 2007-02-28 2010-07-15 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
EP2188759A1 (en) * 2007-03-05 2010-05-26 Fotonation Vision Limited Face searching and detection in a digital image acquisition device
JP4389956B2 (ja) * 2007-04-04 2009-12-24 ソニー株式会社 顔認識装置及び顔認識方法、並びにコンピュータ・プログラム
KR100886557B1 (ko) * 2007-05-03 2009-03-02 삼성전자주식회사 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
KR100901272B1 (ko) 2007-08-24 2009-06-09 한국전자통신연구원 초기 템플릿 생성 장치 및 방법
KR101572768B1 (ko) 2007-09-24 2015-11-27 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
EP2104338A3 (en) * 2008-03-19 2011-08-31 FUJIFILM Corporation Autofocus system
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP2010027035A (ja) 2008-06-16 2010-02-04 Canon Inc 個人認証装置及び個人認証方法
JP2014116033A (ja) * 2008-06-16 2014-06-26 Canon Inc 個人認証装置及び個人認証方法、カメラ、プログラム並びに記憶媒体
WO2009158653A1 (en) * 2008-06-27 2009-12-30 Intuitive Automata, Inc. Apparatus and method for assisting in achieving desired behavior patterns
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
CN106919911A (zh) 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
JP4851624B2 (ja) * 2008-11-19 2012-01-11 シャープ株式会社 指定色領域画定回路、検出回路及びそれを用いた画像処理装置
WO2010063463A2 (en) * 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
KR20100086262A (ko) * 2009-01-22 2010-07-30 삼성전자주식회사 로봇 및 그 제어방법
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
CN101859374A (zh) * 2010-05-20 2010-10-13 上海洪剑智能科技有限公司 一种分布式人脸识别系统及其识别方法
US8824747B2 (en) 2010-06-29 2014-09-02 Apple Inc. Skin-tone filtering
US8326001B2 (en) * 2010-06-29 2012-12-04 Apple Inc. Low threshold face recognition
CN102402680B (zh) * 2010-09-13 2014-07-30 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US20130085602A1 (en) * 2011-10-04 2013-04-04 Hei Tao Fung Office Robot System
US9633186B2 (en) 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
CN103577797B (zh) * 2012-08-03 2016-08-24 华晶科技股份有限公司 影像辨识系统及其影像辨识方法
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
JP6025690B2 (ja) 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
JP2015088096A (ja) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
JP6147198B2 (ja) * 2014-01-10 2017-06-14 富士ソフト株式会社 ロボット
US9324067B2 (en) 2014-05-29 2016-04-26 Apple Inc. User interface for payments
WO2016136214A1 (ja) * 2015-02-27 2016-09-01 日本電気株式会社 識別器学習装置、滞留物体検出システム、識別器学習方法、滞留物体検出方法およびプログラム記録媒体
US10674953B2 (en) * 2016-04-20 2020-06-09 Welch Allyn, Inc. Skin feature imaging system
US20180336412A1 (en) * 2017-05-17 2018-11-22 Sphero, Inc. Computer vision robot control
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
EP4155988A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric authentication for performing a respective function
US10796185B2 (en) * 2017-11-03 2020-10-06 Facebook, Inc. Dynamic graceful degradation of augmented-reality effects
US10828790B2 (en) 2017-11-16 2020-11-10 Google Llc Component feature detector for robotic systems
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
CN111985352B (zh) * 2020-07-30 2024-03-15 国网智能科技股份有限公司 一种ai前端化的变电站巡检视频实时识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0867831A2 (en) * 1997-03-27 1998-09-30 Lucent Technologies Inc. Incorporating invariances by preprocessing for kernel-based methods
JPH1115979A (ja) * 1997-04-30 1999-01-22 Ritsumeikan 顔検出及び顔追跡方法並びにその装置
WO2000043168A1 (fr) * 1999-01-25 2000-07-27 Sony Corporation Robot

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
JPH0520442A (ja) * 1991-07-17 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> 顔画像照合装置
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
US5870138A (en) * 1995-03-31 1999-02-09 Hitachi, Ltd. Facial image processing
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US6088469A (en) * 1996-09-30 2000-07-11 Sony Corporation Identifying apparatus and method, position detecting apparatus and method, robot apparatus and color extracting apparatus
JPH10269358A (ja) * 1997-03-25 1998-10-09 Sony Corp 物体認識装置
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
JP4087953B2 (ja) * 1998-07-14 2008-05-21 株式会社東芝 パターン認識装置及びその方法
US6944319B1 (en) * 1999-09-13 2005-09-13 Microsoft Corporation Pose-invariant face recognition system and process
US6990217B1 (en) * 1999-11-22 2006-01-24 Mitsubishi Electric Research Labs. Inc. Gender classification with support vector machines
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
US6804391B1 (en) * 2000-11-22 2004-10-12 Microsoft Corporation Pattern detection methods and systems, and face detection methods and systems
US6994319B2 (en) * 2003-01-29 2006-02-07 Applied Materials, Inc. Membrane gas valve for pulsing a gas

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0867831A2 (en) * 1997-03-27 1998-09-30 Lucent Technologies Inc. Incorporating invariances by preprocessing for kernel-based methods
JPH1115979A (ja) * 1997-04-30 1999-01-22 Ritsumeikan 顔検出及び顔追跡方法並びにその装置
WO2000043168A1 (fr) * 1999-01-25 2000-07-27 Sony Corporation Robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106488197A (zh) * 2016-12-26 2017-03-08 旗瀚科技有限公司 一种智能人物识别机器人
WO2018121730A1 (zh) * 2016-12-31 2018-07-05 深圳市优必选科技有限公司 视频监控和人脸识别方法、装置及系统

Also Published As

Publication number Publication date
US20070122012A1 (en) 2007-05-31
JP2002157596A (ja) 2002-05-31
US7317817B2 (en) 2008-01-08
US7200249B2 (en) 2007-04-03
US20030059092A1 (en) 2003-03-27
JP4590717B2 (ja) 2010-12-01

Similar Documents

Publication Publication Date Title
WO2002041254A1 (fr) Dispositif robot et procede d&#39;identification faciale, et dispositif et procede d&#39;identification d&#39;images
JP4609584B2 (ja) ロボット装置、顔認識方法及び顔認識装置
EP1406135B1 (en) Man-machine interface unit control method; robot apparatus; and its action control method
US7532743B2 (en) Object detector, object detecting method and robot
Nowozin et al. Action points: A representation for low-latency online human action recognition
Rosales et al. 3D hand pose reconstruction using specialized mappings
Nuevo et al. RSMAT: Robust simultaneous modeling and tracking
Fan et al. What are we tracking: A unified approach of tracking and recognition
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
Valipour Deep learning in robotics
JP4193098B2 (ja) トラッキング装置、トラッキング装置のトラッキング方法及びロボット装置
Zibner et al. Making a robotic scene representation accessible to feature and label queries
De Campos 3D visual tracking of articulated objects and hands
Cicirelli et al. Gesture recognition by using depth data: Comparison of different methodologies
Corradini et al. Implementation and comparison of three architectures for gesture recognition
Hoey et al. Decision Theoretic Learning of Human Facial Displays and Gestures
Zhang et al. Long time sequential task learning from unstructured demonstrations
Zhang Robot Learning from Human Demonstration: Interpretation, Adaptation, and Interaction
Zhi Depth camera-based hand gesture recognition for training a robot to perform sign language
Hasanuzzaman et al. Face and gesture recognition for human-robot interaction
Wang From Line Drawings to Human Actions: Deep Neural Networks for Visual Data Representation
Hasan et al. Model Based Gait Recognition Using Skeletal Data
Corradini et al. A hybrid stochastic-connectionist architecture for gesture recognition
Muscio et al. Face Recognition for Robot Person Following
Mou Fundamentals and advances in biometrics and face recognition

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA US

WWE Wipo information: entry into national phase

Ref document number: 10181279

Country of ref document: US