CN1294541C - 在单目脸部跟踪中使用数据驱动模型的方法和系统 - Google Patents

在单目脸部跟踪中使用数据驱动模型的方法和系统 Download PDF

Info

Publication number
CN1294541C
CN1294541C CNB028094204A CN02809420A CN1294541C CN 1294541 C CN1294541 C CN 1294541C CN B028094204 A CNB028094204 A CN B028094204A CN 02809420 A CN02809420 A CN 02809420A CN 1294541 C CN1294541 C CN 1294541C
Authority
CN
China
Prior art keywords
model
shape
data
monocular
tracks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB028094204A
Other languages
English (en)
Other versions
CN1509456A (zh
Inventor
拉杰克·格热斯茹克
让-伊夫·布盖
萨利赫·格克蒂尔克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN1509456A publication Critical patent/CN1509456A/zh
Application granted granted Critical
Publication of CN1294541C publication Critical patent/CN1294541C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

本发明公开了一种在单目脸部跟踪中使用数据驱动模型的方法和系统,为用单个摄像机跟踪三维(3D)图像,例如脸部提供了一种通用的系统。其中一种方法,得到了基于输入的图像序列的立体数据。用所得到的立体数据构建了3D模型。用所构建的3D模型跟踪单目图像序列。主元分析(PCA)可被应用到所述立体数据上以学习例如可能的脸部变形,并构建3D数据驱动模型(“3D脸部模型”)。所述3D脸部模型可以被用于将一般的形状(例如脸部姿势)作为基于PCA分析的形状基向量的线性组合来近似。

Description

在单目脸部跟踪中使用数据驱动模型的方法和系统
技术领域
本发明一般地涉及图像处理的领域。更具体地,本发明涉及在单目脸部跟踪(monocular face tracking)中使用数据驱动模型的方法和系统。
背景技术
单目脸部跟踪是基于由固定摄像机所得到的单目图像序列来估计脸部运动、位置和形状的过程。单目脸部跟踪是如电视会议系统等的许多图像处理系统的主要过程。例如,在电视会议系统中,通过估计脸部的运动和位置,需要交换或处理的脸部数据或信息总量就减少了。换言之,可以交换或处理与要估计的脸部运动、位置和形状相关的参数来输出一个图像序列,来代替交换或处理大量的图像数据。
一种脸部跟踪系统是基于标识的脸部跟踪系统(“标识脸部跟踪系统”)。在标识脸部跟踪系统中,要求用户在已知的位置戴上彩色的“标识”。于是这些标识的运动被参数化以估计脸部的位置和形状。标识脸部跟踪系统的一个缺点就是对用户的干扰。具体地说,用户必须在脸部的不同位置放置许多彩色标识。另外,用户要花时间来戴标识,这让使用这样的系统更加复杂。
另一种脸部跟踪系统是基于模型的脸部跟踪系统。基于模型的脸部跟踪系统使用参数化的脸部形状模型,该模型可用来估计脸部位置和运动。在现有的基于模型的脸部跟踪系统中,参数化模型用手工过程来构建,例如,通过使用3D扫描仪或计算机辅助设计(CAD)建模器。因此,现有的基于模型的脸部跟踪系统的一个缺点就是脸部形状模型的手工构建十分特定,这导致要用试错法得到跟踪模型。这样一种特定过程提供的是不精确和次优的模型。
发明内容
针对现有技术中的上述问题,作出了本发明。
根据本发明的一个方面,提供了一种图像处理的方法,包括:基于变化的脸部表情的输入图像序列得到立体数据;用所得到的立体数据构建三维模型;以及用所构建的三维模型跟踪分别的单目图像序列,而不使用标记。
根据本发明的另一个方法,提供了一种计算系统,包括:输入单元,用于基于变化的脸部表情的输入图像序列得到立体数据;以及处理单元,用于用所得到的立体数据构建三维模型并用所构建的三维模型跟踪分别的单目图像序列,而不使用标记。
附图说明
本发明通过附图用示例而非限制的方式来说明,其中相似的标记指示类似的部件,其中:
图1图示了一个实施本发明的示例的计算系统;
图2图示了根据一个实施例使用数据驱动模型来进行单目跟踪的操作的流程图;
图3图示了为构建图2中的数据驱动模型的示例的用于立体跟踪的立体输入图像序列;
图4图示了从立体输入序列所学习的示例的变形的四维空间;
图5图示了用于单目跟踪的示例的输入图像序列;
图6图示了根据一个实施例进行图2中的立体跟踪的操作的流程图;
图7图示了根据一个实施例计算图2中的主形状向量的操作的流程图;以及
图8图示了根据一个实施例进行图2中的单目跟踪的流程图。
具体实施方式
下面描述一种在单目脸部跟踪中使用数据驱动模型的方法和系统,其提供了一种在用单个摄像机得到的图像序列中跟踪三维(3D)物体,如脸部的通用的系统。在一个实施例中,得到了基于输入图像序列的立体数据(stereo data)。用所得到的立体数据构建了3D模型。用所构建的3D模型跟踪单目图像序列。在一个实施例中,主元分析(PCA)被应用到所述立体数据上来学习例如可能的脸部变形,并构建数据驱动3D模型(“3D脸部模型”)。所述3D脸部模型将一般的形状(例如脸部姿势)作为基于PCA分析的形状基向量的线性组合来近似。
通过使用真实的立体,可以计算出少量的形状基向量来构建3D模型,这提供了很多好处。例如,只用少量的(例如3或4个)形状基向量就可以生成多种面部表情,如笑、说话和抬眉毛等等。另外,可以用一个或多个用户的立体数据构建一个3D模型并存储在数据库中,即使一个新用户的立体数据并未存储在所述数据库中也可以在其中跟踪例如所述新用户的脸。
此外,通过使用基于输入图像序列的立体数据构建3D模型,就可以不使用干扰性的标识而做到对姿势和脸部变形的单目脸部跟踪。本文描述的3D脸部模型为对单个图像序列同时跟踪姿势和脸部变形(“单目跟踪”)提供了低复杂度的可变模型。
以下实施例描述了一个不使用干扰性标识的,跟踪单个摄像机前的3D姿势和脸部图像的形状(“脸部”)的系统。所述系统还提供了使用数据驱动模型的鲁棒的和精确的单目跟踪。另外,所述系统还提供了普适化的特性,使得可以用同样的3D模型来对多人进行脸部跟踪。
在以下描述中,单目跟踪技术是对于3D脸部图像的跟踪来描述的。但是,本文描述的单目跟踪技术并不限于任何具体类型的图像,还可以对其他类型的3D图像实施,例如运动的人体部分或无生命物体。
                         一般概述
                       示例的计算系统
图1图示了一个实施本发明的示例的计算系统100。本文描述的3D模型构建技术和单目跟踪技术可由计算系统100实施和利用。计算系统100可代表,例如,通用的计算机、工作站、便携式计算机、手持式计算设备或其他类似的计算设备。计算系统100的部件是示例性的,其中可以去掉或添加一个或多个部件。例如,可在计算系统100中使用多个摄像设备128。
参照图1,计算系统100包括主单元110,该主单元110具有通过总线101耦合到显示电路105、主存储器104、静态存储器106和闪存107的中央处理单元(CPU)102和协处理器103。计算系统100的主单元110还可以通过总线101耦合到显示器121、键盘输入122、光标控制123、硬拷贝设备124、输入/输出(I/O)设备125、海量存储设备126以及摄像设备128。
总线101是传递信息和信号的标准系统总线。CPU 102和协处理器103是计算系统100的处理单元。CPU 102或协处理器103,或两者都可用来为计算系统100处理信息和/或信号。CPU 102可用来处理代码或指令来完成本文描述的3D数据驱动模型构建技术和单目跟踪技术。作为替换,协处理器103可用来处理代码或指令来完成和CPU 102一样的技术。CPU102包括控制单元131、算术逻辑单元(ALU)132和若干寄存器133,它们可由CPU 102用作数据和信息处理的目的。协处理器103也可以包括和CPU 102类似的部件。
主存储器104可以是例如随机存取存储器(RAM)或其他动态存储设备,来存储计算系统100要用的数据、代码或指令。在一个实施例中,主存储器104可以存储与输入立体图像序列和/或下面将进一步详细描述的3D数据驱动模型相关的数据。主存储器104还可存储在CPU 102或协处理器103执行代码或指令过程中的临时变量或其他中间数据。静态存储器106可以是例如只读存储器(ROM)和/或其他静态存储设备,该存储器能存储计算系统100要用的数据和/或代码或指令。闪存107是可以用来为计算系统100存储基本输入/输出系统(BIOS)代码或指令的存储设备。
显示器121可以是例如阴极射线管(CRT)或液晶显示器(LCD)。显示设备121能向用户显示图像、信息或图片。计算系统100的主单元110能通过显示电路105和显示器121接口。键盘输入122是为计算系统100传递信息和命令选择的字母数字式的输入设备。光标控制123可以是例如鼠标、触摸板、轨迹球或光标方向键,来在显示器121上控制目标移动。硬拷贝设备124可以是例如激光打印机,来在纸、胶片或其他类似媒体上打印信息。许多输入/输出(I/O)设备125可耦合到计算系统100上。例如,如扬声器这样的I/O设备可连接到计算系统100上。海量存储设备126可以是,例如,硬盘、可读写CD或DVD播放机或其他大容量存储设备。摄像设备128可以是能用于本文描述的图像处理技术的视频图像捕捉设备。在一个实施例中,摄像设备128包括DigiclopsTM摄像系统,该系统提供了大小为640×480的彩色图像时4帧/秒(fps)的平均帧速。
在一个实施例中,本文描述的3D数据驱动模型构建技术和单目跟踪技术可被包含在计算系统100中的硬件和/或软件模块来完成。例如,CPU102或协处理器103能执行存储在机器可读媒体,例如主存储器104或静态存储器106中的代码或指令,来处理立体输入序列以构建本文描述的3D数据驱动模型。另外,CPU 102或协处理器103能执行代码或指令来使用本文描述的3D数据驱动模型跟踪单目输入图像。
机器可读媒体可以包括以例如计算机或数字处理设备的机器的可读形式,提供(即存储和/或传输)信息的装置。例如,机器可读媒体可以包括只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储媒体、光存储媒体、闪存设备或其他类似存储设备。代码或指令能用载波信号、红外信号、数字信号和其他类似信号表示。机器可读媒体也可用来存储本文描述的3D数据驱动模型的数据库。另外,可用一个或多个机器可读媒体来存储所述3D模型。
                            基本操作
图2图示了根据一个实施例使用数据驱动模型来进行单目跟踪的操作200的功能流程图。参照图2,操作200包括两个阶段。第一个阶段是指操作块210或学习阶段210。学习阶段210通过在真实立体跟踪数据上应用主元分析(PCA)处理来学习可能的脸部变形空间,为单目跟踪构建3D数据驱动模型。所述3D数据驱动模型可用来将一般形状作为形状基向量的线性组合来近似。第二阶段是指操作块220,其中使用在所述学习阶段构建的3D数据驱动模型来进行单目跟踪。通过使用所述3D数据驱动模型,由单目或单个图像序列能同时跟踪例如脸部的图像的姿势和变形。操作200最初从学习阶段210开始。
在学习阶段210中,在操作块202处,立体序列被输入。例如,摄像设备128可包括第一摄像机和第二摄像机,来从左视角和右视角捕捉图像序列,如图3所示。如图3所示,第一和第二摄像机能从左视角和右视角捕捉一个人展现变化的脸部运动和姿势的图像序列,例如帧1到100。立体输入序列能被输入计算系统100来处理。
在操作块204中,输入的立体序列被跟踪。具体地说,低复杂度的脸部网格(例如,如图3所示的在脸部不同位置的十九个点)被初始化,随后用标准的光学流技术跟踪。为了处理脸部的非刚性变形,每个点被独立地跟踪以得到脸部形状轨迹。
在操作块206中,对从被跟踪的输入立体序列得到的形状轨迹开始应用主元分析(PCA)处理。PCA是用来对嵌入在高维空间中的数据的低维表示进行最优估计的数学过程。PCA处理用于得到在单目跟踪中使用的紧凑可变3D形状模型(“3D形状模型”)的主形状向量。
在操作块208中,主形状向量被计算,这将在下面进一步详细解释。一旦主形状向量被计算出来,在单目跟踪过程中的任何脸部运动或姿势就能用主形状向量的线性组合来近似。
在操作220(第二阶段)中,用计算模型可对单目输入序列进行单目跟踪。单目序列是由单个摄像机得到的图像序列。例如,如图5所示,在单目输入序列中的各帧(例如,帧1到72)中,脸部的形状可以用在学习阶段210构建的计算模型的主形状向量的线性组合来近似。具体地说,当一个人改变脸部表情和姿势时,所产生的序列的光学流信息可和计算模型一起用来跟踪姿势和脸部表情的改变。
以上操作可在示例的计算系统100中实施。例如,CPU102可执行代码或指令来构建3D模型和进行PCA处理,这将在下面进一步详细描述。数据驱动3D模型也可存储在计算系统100的存储设备中。在一个实施例中,数据驱动3D模型是“可变脸部模型”,现在来描述该模型。
                           可变脸部模型
以下说明描述了基于立体跟踪数据创建可变脸部模型和单目跟踪可变脸部模型所需的参数化。例如,参照图5,用本文描述的可变脸部模型可在3D空间中跟踪单目脸部序列。
开始时,设In是单目脸部序列的第n帧图像,该序列如图5所示有72帧。时间n时的每一帧的每张脸的3D结构可用N个点Pn i(i=1,...,N)的集合来表示。为进行单目跟踪,需要定义脸部参考帧和摄像机参考帧的坐标向量。具体地说,设Xi(n)和 X c i ( n ) = [ X c i ( n ) Y c i ( n ) Z c i ( n ) ] T 分别是脸部参考帧和摄像机参考帧中点Pn i的坐标向量。
然后向量Xi(n)和Xc i(n)通过刚体变换互相关联,表征出在时间n时用户脸部相对摄像机的姿势,即:
X c i ( n ) = R n X i ( n ) + t n ,
其中Rn是3×3的旋转矩阵,tn是平移向量。为将如图5所示的每一帧中的每张脸作为非刚性的物体跟踪,对形状必须估计Xi(n)的量,对姿势必须估计Rn和tn的量。因为Rn是旋转矩阵,Rn可唯一地参数化为一个三维向量
Figure C0280942000093
即所谓的旋转向量。由标准公式可将旋转矩阵和旋转向量相互关联。
图像In,n=1,2,...,M(例如,帧1到72)中的数据可用于估计每一帧中的每张脸的形状和姿势。具体地说,设Pn i是Pn i在图像In上的投影,并设xn i是Pn i的图像坐标向量。这样,在一个实施例中,可用一个传统的针孔摄像机模型来确定Pn i的投影的图像坐标向量xn i,即:
这样单目跟踪就等价于为还原3D形状Xi(n)和姿势 而对投影映射π的取逆。
在一个实施例中,为对非刚性形状,例如变化的脸部表情和姿势,进行单目跟踪,非刚性形状可以是基于刚性形状的线性组合。通过将非刚性形状作为基于刚性形状的线性组合,对变化的形状和姿势可以避免处理无数的图像投影点。这样,在序列中的任意时间n,形状坐标向量Xi(n)可以是平均形状向量Xo i和少数几个已知的形状向量Xk i(k=1,...,p)之和,这些形状向量Xk i是主形状基向量,如下面的等式1所示:
X i ( n ) = X o i + Σ k = 1 p α n k X k i , 等式1
在等式1中,p<<3N,p个系数αn k代表考虑到3D形状的非刚性的实体。如果p=0,则脸部形状Xi(n)变成刚性形状Xo i。于是,“p”指“变形空间的维数”。图像投影映射可简化为姿势参数 和tn以及变形向量
Figure C0280942000103
的函数,该变形向量 具有多个“变形系数”,例如 α n ‾ = [ α n 1 α n 2 . . . α n p ] T . 这样图像投影映射可以用下面所示等式2来计算:
Figure C0280942000106
等式2
于是,通过将光学流约束(例如Lucas-Kanade)和由等式1表示的可变模型的特定形式结合起来,可以执行单目跟踪程序来同时估计每一帧的变形向量
Figure C0280942000107
和姿势参数
Figure C0280942000108
和tn。单目跟踪程序在下面进一步详细讨论。
在执行单目跟踪程序之前,必须计算等式1的主形状基向量“Xk i”,这在如图2所示的学习阶段210中进行。通过使用主形状基向量Xk i,数据驱动模型可用来避免对非刚性模型的手工构造。主形状基向量从真实的3D跟踪数据中获得,这也在如图2所示的学习阶段210中进行。具体地说,已校准的立体摄像机用来跟踪3D变化的脸部表情和姿势。例如,可以使用将近100到150帧的短的立体输入序列(例如,如图3所示)。
因此,主形状基向量Xk i可从在图2中的操作块202和204的被跟踪序列,用主元分析(PCA)处理来计算,这将在下面详细描述。操作块202和204的处理为形状变形分析提供了捕捉3D轨迹数据所必须的立体跟踪。
                           立体跟踪
图6图示了根据一个实施例进行立体跟踪的图2的操作204的流程图。操作204最初在操作块602处开始。
在操作块602中,在左摄像机图像和右摄像机图像上的点集被初始化。在一个实施例中,如图2所示,位于眼睛(2)、鼻子(3)、嘴(8)和眉毛(6)的N=19个点Pi的集合在左摄像机图像和右摄像机图像上被初始化。在这个操作中,独立地从姿势中提供变化的脸部变形,即用户在做多个不同脸部表情,例如张开/合上嘴巴、笑、抬眉毛等等的时候,在整个序列中尽可能固定地保持头部姿势。在一个实施例中,点集由计算系统100的用户在第一、左和右摄像机图像上指出。这样,立体图像序列可用这些点来跟踪。
应该注意不需要所有的点落在图像的纹理化区域内。这是对独立特征点跟踪(表明一个点适合跟踪)的要求,而非对基于模型的跟踪的要求。例如,在鼻尖处的点落在一个完全没有纹理化的区域内,而嘴的轮廓和眉毛上的点是边缘特征。所有这些点用传统的光学流技术将无法单个跟踪。
在操作块604中,点集用立体三角来跟踪。立体跟踪在3D中进行,使得每个点的位置Xc i(n)(在左摄像机参考帧中)都被更新,以使其当前的左图像和右图像投影都和先前的图像投影近似匹配(即瞬时跟踪)。
             图像匹配成本(Image Matching Costs)
在一个实施例中,为在整个立体跟踪中保持立体的一致性,通过考虑一个在左图像和右图像之间测量的成本函数(cost function)来近似匹配左图像和右图像投影。具体地说,通过最小化如以下等式3所示的成本函数Ei来建立从帧n-1到帧n对点Pi的立体跟踪。
E i ( n ) = Σ ROI γ 1 ( I n L ( x L i ( n ) ) - I n - 1 L ( x L i ( n - 1 ) ) ) 2 + γ 2 ( I n R ( x L i ( N ) ) - I n - 1 R ( x R i ( n - 1 ) ) ) 2 + γ 3 ( I n L ( x L i ( n ) ) - I n - 1 L ( x R i ( n - 1 ) ) ) 2 , 等式3
在等式3中,In L和In R指在时间n时左图像和右图像的向量,xL i(n)和xR i(n)指Pi的左图像和右图像投影的坐标向量。Ei的求和是对围绕着图像点的所谓感兴趣区(ROI)进行的。等式3的第一和第二项表示独立的左右瞬时跟踪的传统图像匹配成本计算项。第三项用来在左图像和右图像之间保持一致性。这三项中的三个系数(γ1,γ2和γ3)是固定的权重系数(即,对所有点都一样),用于这三项之间的不同的可信度。
                           计算权重系数
在一个实施例中,γ3系数的值保持小于γ1系数和γ2系数,而且比值γ13和γ23一般保持在20。可以对如图2所示的脸部网格上的19个点中的每一个分别直接给定(hardcode)γ1、γ2和γ3系数的值。在一个实施例中,在脸部网格中的每对连接的点被分别考虑。对有将近100个象素的平均图像面积,γ1、γ2和γ3的值可分别是1、1和0.05。
                           最小化能量函数
如果应用到所有的网格点,这三个权重系数能用来最小化全局能量函数 E i ( n ) = Σ i = 1 N E i ( n ) . 在全局能量函数的这种形式中,对短序列(例如,直到20至30帧)的立体跟踪很成功。对更大的立体序列,可以在成本函数Ei(n)中加入调节项,来在立体序列的过程中总体上平滑地变形时,允许整个3D结构维持其完整性。这样总的能量成本函数E(n)就变成:E(n)=Ei(n)+ET(n)+ES(n)+EA(n)。
ET(n)项是瞬时平滑项,用来最小化每个点的3D速度幅值。ES(n)项是形状平滑项,用来最小化相邻点的速度差。这一项通过轻微地迫使相邻点靠拢来保证模型的完整性。EA(n)项是人体测量能量成本项,用来保持线段长度尽可能地接近在第一帧中所计算出的值,并防止在长的跟踪序列中的漂移。这三个调节项的公式如下:
E T ( n ) = Σ i = 1 N ρ i | | dX i ( n ) | | 2
E S ( n ) = Σ i , j β ij | | dX i ( n ) - dX j ( n ) | | 2
E A ( n ) = Σ i , j δ ij | | X c i ( n ) - X c j ( n ) | | 2 - | | X c i ( 1 ) - X c j ( 1 ) | | 2 2 ,
其中 dX i ( n ) = X c i ( n ) - X c i ( n - 1 ) , 正的系数ρi、βij和δij对不同的点和不同的边都不同。在一个实施例中,所有伸展较大的线段[Pi;Pj]被赋予较小的βij和δij值。在另一个实施例中,在脸部的高变形区域的点Pi被赋予小的ρi。在一个实施例中,已知是相当刚性的点和线段将被赋予较大的ρi、βij和δij值以加重惩罚加于其上的任何运动和伸展。例如,在嘴轮廓上的点和边将比属于鼻子和眼睛的点和边有更小的系数。在一个实施例中,对有将近100个象素的平均图像特征片,ρi、βij和δij的值将近20000、20000和100。
                           3D形状轨迹
最小化总能量函数E(n)的解形状Xc i(n),i=1,...,N可用梯度下降来计算。也就是将E(n)对所有微分形状坐标向量dXi(n)的导数置零,即E(n)/Xi(n)=0。在对雅可比矩阵求导之后,形状跟踪的解简化成一个线性方程:dX=D-1e,其中dX是由所有N个向量dXi(n)组成的3N×1的列向量,D和e分别是3N×3N的矩阵和3N×1的向量。一旦dX被算出来,形状Xc i(n)就知道了。对整个立体序列重复同样的过程,最后得到完整3D形状轨迹。
                           主形状向量计算
图7图示了根据一个实施例计算主形状向量的图2的操作208的流程图。操作208最初在操作块702处开始。
在操作702中,计算平均形状Xo i。具体地说,立体跟踪的结果是左摄像机参考帧中每个点Pi的3D轨迹: X c i ( n ) = [ X c i ( n ) Y c i ( n ) Z c i ( n ) ] T , 对n=1,...,M,其中M是序列中帧的数目。P+1个形状基向量Xk i用奇异值分解(SVD)来计算。首先,平均形状Xo i如下计算:
X o i = 1 M Σ n = 1 M X c i ( n ) .
在操作704中,从整个轨迹中减去平均形状Xo i X c i ( n ) = X c i ( n ) - X o i . 所得到的形状轨迹Xi(n)随后存储在3N×M的矩阵(“M”)中。
在操作块706中,对M做奇异值分解(SVD)。具体地说,对M应用SVD,得到结果M=USVT,其中U=[u1 u2 ... u3N],V=[v1 v2 ... vM]。U和V是两个3N×3N和M×M的酉矩阵,S=diag(σ1,...,σ3N)是正的且单调增的奇异值σk的对角矩阵。经过该分解,M现在变成:
M = Σ k = 1 3 N σ k U k v k T .
在操作708中,M的求和被从3N截断到p项,这得到给定固定的一组p个向量时矩阵M的最优最小二乘法近似。这等价于用矩阵M在由头p个向量u1,...,up生成的线性子空间上的正交投影来近似矩阵M的每一列(即序列中的每个3D形状)。这些向量正是剩下的p个变形形状向量
Xk i:对k=1,...,p,
u k = x k 1 x k 2 · · · x k N .
所生成的主形状向量的模型适合于单目跟踪阶段。例如,如果一个用户做出了多个脸部表情,这些脸部表情可以基于在学习阶段210期间已展示给系统的脸部表情来跟踪。应该注意,因为向量uk是幺正的,等式1和2中出现的形状系数αn k是以平均形状Xo i为单位的。在一个实施例中,单位是厘米并用4个主形状向量来涵盖大多数常见的脸部表情(例如,嘴和眉毛的运动)。然而,所使用的主形状向量的数目可基于用于跟踪的脸部表情的不同而变化。
回到图4,图示了从变形411到414的四维空间,其中变形是由如图3所示的立体序列计算的。如图4所示,主形状向量可相应于四个主要脸部运动的组合,例如,笑、张开/合拢嘴和抬左右眉毛。
单目跟踪
图8图示了根据一个实施例用学习阶段210中的计算模型来进行单目跟踪的图2的操作220的流程图。操作220最初从对例如图5所示的图像序列的操作块802开始。
在操作802中,使用图像测量来从图像序列估计形状和姿势的参数。具体地说,给定两个连续的帧,例如帧1和2,就可用光学流跟踪技术来计算图像中每个点的平移距离。然后就可独立处理每个图像点了。这里,对基于模型的跟踪,模型中的所有点通过等式1给出的参数化3D模型而互相联系。于是,由图像测量就可同时全部估计定义3D模型配置的参数。这些参数包括形状参数
Figure C0280942000142
和姿势参数
Figure C0280942000143
在操作804中,使用最符合随后的帧的脸部模型来搜索最优的形状和姿势。例如,假定已经从序列的第一帧I1到第n-1帧In-1跟踪脸部模型了。于是目标就是找到最符合随后帧In的脸部模型最佳的姿势 和变形
Figure C0280942000145
来进行单目跟踪。以下说明描述了如何找到单目跟踪最优的姿势和变形。
利用对成本函数Cn的最小化,来找到最优的姿势和变形,其中最小化是通过以下跟踪解方程4和5实现的:
C n = Σ i , ROI ( 1 - e ) ( I n ( x n i ) - I n - 1 ( x n i - 1 ) ) 2 + e ( I n ( x n i ) - I 1 ( x 1 i ) ) 2 等式4
等式5
其中πi是等式2中定义的基于模型的图像投影映射。等式4的求和是在小的象素点窗口例如感兴趣区(ROI)上,围绕每个图像点xn i、xn-1 i和x1 i进行的。
在一个实施例中,等式4中的第一项是标准匹配成本项,即第一项测量两个相继图像在模型点上的整个图像不匹配。但是,第二项测量当前图像In和第一个图像I1之间的图像不匹配。这个附加项微弱的迫使每个脸部特征在从序列的开始到结束的图像上看上去一样(在图像相邻的意义上)。照此,这避免了跟踪漂移并增强了鲁棒性。这称作漂移监视能量项。
这两个能量项用标量变量“e”来相对加权。在一个实施例中,变量e=0.2,这是为了相对监视成本来强调跟踪成本。于是,跟踪就等价于估计最优姿势和变形更新向量 dt = · t n - t n - 1 d α ‾ = · α ‾ n - α ‾ n - 1 . 这通过将Cndt和d α的导数置零来得到:
∂ C n ∂ s = 0 , 其中
Figure C0280942000158
等式6
接着假定两个相继帧间运动较小,将等式6对“s”求解。设In是如下定义的扩展瞬时导数:
I n ( x n - 1 i ) = I n ( x n - 1 i )                               等式7
- ( ( 1 - ϵ ) I n - 1 ( x n - 1 i ) + ϵI 1 ( x 1 i ) )
扩展瞬时导数函数In实际上是在点xn i-1的相邻区域求值的。注意到如果ε=0,等式7简化成真正的瞬时差In=In-In-1。如果ε>0,前一图像In-1上的图像修正被和第一帧平均,即等式7的第二行。所得到的修正用作下一图像In的参考。这个过程有效地帮助单目跟踪操作在第一个图像上选择了特征时“记住”该特征的原始样子,由此提高了鲁棒性并减小了漂移。
接着,设Ixi是图像In在xn-1 i相邻区域内的x和y图像导数(图像梯度):
I xi = ∂ I n ∂ x = [ ∂ I n ∂ x ∂ I n ∂ x ] .
设Ii是当s=0时在xn-1 i相邻区域内图像亮度In相对s的导数:
▿ I i = ∂ I i ∂ s = ∂ I n ∂ x ∂ π i ∂ s = I xi ∂ π i ∂ s .
因为Ixi的大小分别是1×2和2×(p+6),所得到矩阵Ii的大小是1×(p+6)。于是满足等式6的最优形状和姿势更新向量“s”是:
s=-G-1b,                     等式8
其中(p+6)×(p+6)的矩阵G和(p+6)×1的向量b由下式给出:
G = Σ i = 1 N Σ ROI ▿ I i T ▿ I i ,
b = Σ i = 1 N Σ ROI I n ▿ I i T .
这里,虽然每个图像点以其原始形式被单个处理,但只有唯一的一个跟踪解“s”同时对整个模型计算出来。一个由真实数据构建并用极少几个系数参数化的3D模型被用于跟踪。为让s是可计算的,矩阵G的秩必须是p+6。粗略的,3D模型中的每个点引入零个、一个或两个标量观测约束,这取决于其是否落在图像中的非纹理化区域、边界区域或完全纹理化区域。在一个实施例中,从所有点集合的约束的总数就必须大于或等于p+6=10,以使3D模型适于跟踪。
一旦“s”计算出来,时间帧n时的姿势和变形就知道了。在一个实施例中,为使估计精确,同样的程序可在固定的时间帧n被重复多次(例如,4次或5次)。然后对随后的帧重复同样的整个处理。在一个实施例中,3D模型参数的初始化是通过首先在第一个图像I1上定位N=19个脸部特征而手工完成的。然后对计算初始的姿势和变形参数 进行小的优化,以使模型的图像投影和手工选择的点匹配。
应该注意每个模型点的感兴趣区(ROI)在整个序列中并不保持不变。相反,在每一帧都要基于空间中的点的距离(深度)和方向(局部表面的法向)来计算其大小和几何形状。所得到的感兴趣区是如图5所示的小的平行四边形。具体地说,背对摄像机的点认为是“不可见”的,并分配给它们大小为零的感兴趣区,因此它们对跟踪更新不作贡献。
因此,已描述了一种方法和分两阶段的系统,用于对单目图像序列中例如脸部的姿势和变形的3D跟踪,并且不使用干扰性的特殊标识。所述系统的第一阶段,通过对真实立体跟踪数据应用主元分析,学习所有可能的脸部变形的空间。所得到的模型将任意的一般形状作为形状基向量的线性组合来近似。所述系统的第二阶段使用这个低复杂度的可变的模型,来从单个图像序列同时估计脸部的姿势和变形。这一阶段称为基于模型的单目跟踪。
构造模型的数据驱动方法适合于对非刚性对象的3D跟踪,并相对使用3D扫描仪或CAD建模器来手工构造模型的任务,提供了一种极好和实用的替代方法。此外,从真实数据来创建模型允许用比手工模型更少的参数来跟踪很多种的脸部变形,并使得鲁棒性增强和跟踪精度提高。另外,所述系统展现出非常有前途的普适化的特性,使得可以用同样的3D模型来对多人跟踪,这构成较大多数其他对每个要跟踪的用户需要不同的模型的脸部跟踪系统的一个主要进步。
在以上说明中,本发明已经参照其特定的示例的实施例进行了描述。但是,很显然可以对其做不同的修改和变化,而不背离所附的权利要求中所提出的关于本发明的更宽的精神和范围。相应的,说明书和附图应在解释而非限定的意义上被考虑。

Claims (8)

1.一种图像处理的方法,包括:
基于变化的脸部表情的输入图像序列得到立体数据;
用所得到的立体数据构建三维模型;以及
用所构建的三维模型跟踪分别的单目图像序列,而不使用标记。
2.根据权利要求1所述的方法,其中,构建所述三维模型包括用主元分析来处理所得到的立体数据。
3.根据权利要求2所述的方法,其中,用主元分析所处理的立体数据允许三维模型将一般形状作为形状基向量的线性组合来近似。
4.根据权利要求1所述的方法,其中,所述单目图像序列的跟踪包括用所构建的三维模型来跟踪脸部变形的单目图像序列。
5.一种计算系统,包括:
输入单元,用于基于变化的脸部表情的输入图像序列得到立体数据;以及
处理单元,用于用所得到的立体数据构建三维模型并用所构建的三维模型跟踪分别的单目图像序列,而不使用标记。
6.根据权利要求5所述的计算系统,其中,所述处理单元用主元分析来处理所得到的立体数据。
7.根据权利要求6所述的计算系统,其中,所述处理单元基于主元分析所处理的立体数据,将一般形状作为形状基向量的线性组合来近似。
8.根据权利要求5所述的计算系统,其中,所述处理单元用所构建的三维模型来跟踪脸部变形的单目图像序列。
CNB028094204A 2001-05-09 2002-05-02 在单目脸部跟踪中使用数据驱动模型的方法和系统 Expired - Fee Related CN1294541C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/852,398 US9400921B2 (en) 2001-05-09 2001-05-09 Method and system using a data-driven model for monocular face tracking
US09/852,398 2001-05-09

Publications (2)

Publication Number Publication Date
CN1509456A CN1509456A (zh) 2004-06-30
CN1294541C true CN1294541C (zh) 2007-01-10

Family

ID=25313204

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB028094204A Expired - Fee Related CN1294541C (zh) 2001-05-09 2002-05-02 在单目脸部跟踪中使用数据驱动模型的方法和系统

Country Status (7)

Country Link
US (1) US9400921B2 (zh)
KR (1) KR100571115B1 (zh)
CN (1) CN1294541C (zh)
AU (1) AU2002303611A1 (zh)
GB (1) GB2393065B (zh)
HK (1) HK1062067A1 (zh)
WO (1) WO2002091305A2 (zh)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10025922A1 (de) * 2000-05-27 2001-12-13 Robert Massen Automatische photogrammetrische Digitalisierung von Körpern und Objekten
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
GB2382289B (en) * 2001-09-28 2005-07-06 Canon Kk Method and apparatus for generating models of individuals
GB2389289B (en) * 2002-04-30 2005-09-14 Canon Kk Method and apparatus for generating models of individuals
DE10235657A1 (de) * 2002-08-02 2004-02-12 Leica Microsystems Heidelberg Gmbh Verfahren, Anordnung und Software zur Optimierung der Bildqualität von mit einem Mikroskop aufgenommenen beweglichen Objekten
WO2004038657A2 (en) * 2002-10-22 2004-05-06 Artoolworks Tracking a surface in a 3-dimensional scene using natural visual features of the surface
JP4210926B2 (ja) * 2004-01-16 2009-01-21 株式会社デンソー 乗員保護システム
CA2575211C (en) 2004-07-30 2012-12-11 Euclid Discoveries, Llc Apparatus and method for processing video data
KR101238608B1 (ko) * 2004-07-30 2013-02-28 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
WO2007090945A1 (fr) * 2006-02-07 2007-08-16 France Telecom Procede pour suivre la position de la tete en temps reel dans un flux d'images video
US8026931B2 (en) 2006-03-16 2011-09-27 Microsoft Corporation Digital video effects
CN100449567C (zh) * 2006-11-02 2009-01-07 中山大学 一种基于块内相关性的二维主元分析人脸识别方法
CN100423020C (zh) * 2006-12-15 2008-10-01 中山大学 一种基于结构主元分析的人脸识别方法
WO2008106725A1 (en) * 2007-03-05 2008-09-12 Seeing Machines Pty Ltd Efficient and accurate 3d object tracking
KR100896065B1 (ko) * 2007-12-17 2009-05-07 한국전자통신연구원 3차원 얼굴 표정 애니메이션 생성 방법
JP5239396B2 (ja) * 2008-02-28 2013-07-17 セイコーエプソン株式会社 画像出力方法、画像出力装置および画像出力プログラム
US8525871B2 (en) * 2008-08-08 2013-09-03 Adobe Systems Incorporated Content-aware wide-angle images
US8538072B2 (en) * 2008-08-27 2013-09-17 Imprivata, Inc. Systems and methods for operator detection
CN101425183B (zh) * 2008-11-13 2012-04-25 上海交通大学 基于二阶锥规划的变形体三维跟踪方法
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
JP2011039801A (ja) * 2009-08-12 2011-02-24 Hitachi Ltd 画像処理装置および画像処理方法
CN101763636B (zh) * 2009-09-23 2012-07-04 中国科学院自动化研究所 视频序列中的三维人脸位置和姿态跟踪的方法
US8937592B2 (en) * 2010-05-20 2015-01-20 Samsung Electronics Co., Ltd. Rendition of 3D content on a handheld device
US8259994B1 (en) * 2010-09-14 2012-09-04 Google Inc. Using image and laser constraints to obtain consistent and improved pose estimates in vehicle pose databases
CN102122239B (zh) * 2011-03-21 2013-03-20 日照市活点网络科技有限公司 物联网3d图像处理方法
CN103814384B (zh) * 2011-06-09 2017-08-18 香港科技大学 基于图像的跟踪
US20130271451A1 (en) * 2011-08-09 2013-10-17 Xiaofeng Tong Parameterized 3d face generation
US9123144B2 (en) * 2011-11-11 2015-09-01 Microsoft Technology Licensing, Llc Computing 3D shape parameters for face animation
US9129147B1 (en) * 2012-05-22 2015-09-08 Image Metrics Limited Optimal automatic capture of facial movements and expressions in video sequences
KR101311600B1 (ko) * 2012-10-26 2013-09-26 동국대학교 산학협력단 의료용 위치추적 기기
US9406135B2 (en) 2012-10-29 2016-08-02 Samsung Electronics Co., Ltd. Device and method for estimating head pose
FR2998402B1 (fr) * 2012-11-20 2014-11-14 Morpho Procede de generation d'un modele de visage en trois dimensions
EP2824913A1 (en) * 2013-07-09 2015-01-14 Alcatel Lucent A method for generating an immersive video of a plurality of persons
US20160070952A1 (en) * 2014-09-05 2016-03-10 Samsung Electronics Co., Ltd. Method and apparatus for facial recognition
GB201419441D0 (en) * 2014-10-31 2014-12-17 Microsoft Corp Modifying video call data
US9747573B2 (en) 2015-03-23 2017-08-29 Avatar Merger Sub II, LLC Emotion recognition for workforce analytics
US10441604B2 (en) * 2016-02-09 2019-10-15 Albireo Ab Cholestyramine pellets and methods for preparation thereof
WO2017137948A1 (en) * 2016-02-10 2017-08-17 Vats Nitin Producing realistic body movement using body images
EP3324254A1 (de) * 2016-11-17 2018-05-23 Siemens Aktiengesellschaft Einrichtung und verfahren zur bestimmung der parameter einer regeleinrichtung
CN110476186B (zh) * 2017-06-07 2020-12-29 谷歌有限责任公司 高速高保真面部跟踪
CN109145758A (zh) * 2018-07-25 2019-01-04 武汉恩智电子科技有限公司 一种基于视频监控的人脸的识别算法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0807902A2 (en) * 1996-05-16 1997-11-19 Cyberclass Limited Method and apparatus for generating moving characters
CN1188948A (zh) * 1996-12-27 1998-07-29 大宇电子株式会社 用于对脸部运动编码的方法和装置
CN1189059A (zh) * 1996-12-30 1998-07-29 大宇电子株式会社 在基于3维模型的编码系统中产生唇部活动参数的方法及装置
JPH10255070A (ja) * 1997-03-11 1998-09-25 Atr Chinou Eizo Tsushin Kenkyusho:Kk 3次元画像作成装置
US6163322A (en) * 1998-01-19 2000-12-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of postures

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6047078A (en) * 1997-10-03 2000-04-04 Digital Equipment Corporation Method for extracting a three-dimensional model using appearance-based constrained structure from motion
AU1613599A (en) * 1997-12-01 1999-06-16 Arsev H. Eraslan Three-dimensional face identification system
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
WO1999064944A2 (en) * 1998-06-08 1999-12-16 Microsoft Corporation Compression of time-dependent geometry
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
US6198485B1 (en) * 1998-07-29 2001-03-06 Intel Corporation Method and apparatus for three-dimensional input entry
IT1315446B1 (it) * 1998-10-02 2003-02-11 Cselt Centro Studi Lab Telecom Procedimento per la creazione di modelli facciali tridimensionali apartire da immagini di volti.
JP2000293687A (ja) * 1999-02-02 2000-10-20 Minolta Co Ltd 3次元形状データ処理装置および3次元形状データ処理方法
US6200139B1 (en) * 1999-02-26 2001-03-13 Intel Corporation Operator training system
DE69934478T2 (de) * 1999-03-19 2007-09-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
JP3639476B2 (ja) * 1999-10-06 2005-04-20 シャープ株式会社 画像処理装置および画像処理方法ならびに画像処理プログラムを記録した記録媒体
JP2001142380A (ja) * 1999-11-12 2001-05-25 Sony Corp ホログラム作成装置及び方法、並びにホログラム
EP1956557A1 (en) * 2000-03-08 2008-08-13 Cyberextruder.com, Inc. Generating a 3-D representation form
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
IT1320002B1 (it) * 2000-03-31 2003-11-12 Cselt Centro Studi Lab Telecom Procedimento per l'animazione di un modello sintetizzato di voltoumano pilotata da un segnale audio.
KR20020022504A (ko) * 2000-09-20 2002-03-27 박종만 3차원 캐릭터의 동작, 얼굴 표정, 립싱크 및 립싱크된음성 합성을 지원하는 3차원 동영상 저작 도구의 제작시스템 및 방법
US6850872B1 (en) * 2000-08-30 2005-02-01 Microsoft Corporation Facial image processing methods and systems
US6950104B1 (en) * 2000-08-30 2005-09-27 Microsoft Corporation Methods and systems for animating facial features, and methods and systems for expression transformation
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
US6975750B2 (en) * 2000-12-01 2005-12-13 Microsoft Corp. System and method for face recognition using synthesized training images
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
US7027054B1 (en) * 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
EP2030171A1 (en) * 2006-04-10 2009-03-04 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
WO2008141125A1 (en) * 2007-05-10 2008-11-20 The Trustees Of Columbia University In The City Of New York Methods and systems for creating speech-enabled avatars

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0807902A2 (en) * 1996-05-16 1997-11-19 Cyberclass Limited Method and apparatus for generating moving characters
CN1188948A (zh) * 1996-12-27 1998-07-29 大宇电子株式会社 用于对脸部运动编码的方法和装置
CN1189059A (zh) * 1996-12-30 1998-07-29 大宇电子株式会社 在基于3维模型的编码系统中产生唇部活动参数的方法及装置
JPH10255070A (ja) * 1997-03-11 1998-09-25 Atr Chinou Eizo Tsushin Kenkyusho:Kk 3次元画像作成装置
US6163322A (en) * 1998-01-19 2000-12-19 Taarna Studios Inc. Method and apparatus for providing real-time animation utilizing a database of postures

Also Published As

Publication number Publication date
HK1062067A1 (en) 2004-10-15
AU2002303611A1 (en) 2002-11-18
GB0328400D0 (en) 2004-01-14
WO2002091305A3 (en) 2003-09-18
GB2393065B (en) 2005-04-20
CN1509456A (zh) 2004-06-30
KR100571115B1 (ko) 2006-04-13
WO2002091305A2 (en) 2002-11-14
GB2393065A (en) 2004-03-17
US20030012408A1 (en) 2003-01-16
US9400921B2 (en) 2016-07-26
KR20040034606A (ko) 2004-04-28

Similar Documents

Publication Publication Date Title
CN1294541C (zh) 在单目脸部跟踪中使用数据驱动模型的方法和系统
CN108416840B (zh) 一种基于单目相机的三维场景稠密重建方法
Park et al. Pix2pose: Pixel-wise coordinate regression of objects for 6d pose estimation
Wang et al. A deep coarse-to-fine network for head pose estimation from synthetic data
CN109643368B (zh) 检测视频数据中的对象
CN100407798C (zh) 三维几何建模系统和方法
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
US11348314B2 (en) Fast and deep facial deformations
US10586371B2 (en) Motion retargeting method for character animation and apparatus thererof
Wagner et al. Real-time detection and tracking for augmented reality on mobile phones
CN108876814B (zh) 一种生成姿态流图像的方法
US9519988B2 (en) Subspace clothing simulation using adaptive bases
JP7294788B2 (ja) 3d配置のタイプに応じた2d画像の分類
Bao et al. High-quality face capture using anatomical muscles
CN112686952A (zh) 一种图像光流计算系统、方法及应用
Park et al. Neural object learning for 6d pose estimation using a few cluttered images
US20230351724A1 (en) Systems and Methods for Object Detection Including Pose and Size Estimation
Ye et al. 3d morphable face model for face animation
Wei et al. GeoDualCNN: Geometry-supporting dual convolutional neural network for noisy point clouds
US20220229943A1 (en) Joint retrieval and mesh deformation
Guan et al. Multistage pixel-visibility learning with cost regularization for multiview stereo
Liebelt et al. Robust aam fitting by fusion of images and disparity data
Ma et al. Fov-net: Field-of-view extrapolation using self-attention and uncertainty
CN115023742A (zh) 具有详细褶皱的面部网格变形
Ren et al. Multi-scale convolutional feature fusion for 6D pose estimation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20070110

Termination date: 20100502