CN102129706A - 一种虚拟人眼部情感表现模拟方法 - Google Patents
一种虚拟人眼部情感表现模拟方法 Download PDFInfo
- Publication number
- CN102129706A CN102129706A CN2011100581218A CN201110058121A CN102129706A CN 102129706 A CN102129706 A CN 102129706A CN 2011100581218 A CN2011100581218 A CN 2011100581218A CN 201110058121 A CN201110058121 A CN 201110058121A CN 102129706 A CN102129706 A CN 102129706A
- Authority
- CN
- China
- Prior art keywords
- crank
- point
- motion
- frame
- rocking bar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种虚拟人眼部情感表现模拟方法,首先,获取三维人眼网格模型,即三维网格数据;其次,根据眼部的运动特性在模型的眼部区域选择网格点作为运动控制点;最终,采用曲柄摇杆机构模型驱动边界控制点的运动,模拟真实的眼部运动。本发明采用同一个数学模型不仅可以实现连续时间情况下眼睛张开与闭合这样相反的运动过程,而且可以通过调整不同杆之间的位置关系和曲柄初始安装位置等参数来生成更丰富的反映不同情感的眼睛闭合运动,其数学模型简单,物理意义明确,控制简单,容易实现且逼真度高。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及三维人脸动画研究领域。
背景技术
人脸是每个人的重要特征之一,通过它我们可以识别他人身份、观察他人心情、领悟其健康状态等。近年来,随着计算能力的飞速提高和网络应用的蓬勃发展,人脸动画研究再次成为计算机视觉以及人机交互中非常活跃的领域。而眼睛作为面部重要的感觉器官和关键的情感载体,在传递信息和情感表达等方面都起着不可替代的作用,但同时眼睛生理结构十分复杂,眼部运动非常丰富,故如何在计算机世界里再现具有真实感的眼部运动一直是人脸动画研究中的一个有着重要意义同时又极具挑战性的课题。
一直以来,人们对人脸动画的研究已经很多,专门针对眼睛的研究则相对较少。但鉴于眼睛在表现情感方面的重要作用,近年来对眼睛动画的研究也越来越多。主要可以分为以下几个方面:
1.物理运动模拟
作为人脸动画的一部分,从运动的角度对眼睛进行动画建模。其中主要有参数模型、肌肉模型、抽象肌肉动作模型和物理模型等。而在此基础上,主要的动画方法有基于MPEG-4参数的人脸表情动画和基于Waters肌肉模型的人脸表情动画。
MPEG-4的动画方法主要基于MPEG-4标准中对三维人脸格式的定义。该标准中定义了FDP(Facial Definition Parameter,人脸定义参数)和FAP(Facial Animation Parameter,人脸动画参数)两套参数,其中FDP定义人脸的形状、纹理等特征,而FAP则描述人脸的运动。FDP共包括了84个特征点的位置信息来定义人脸模型,这些点不仅包括外表看得见的人脸特征点,还包括了舌头、牙齿等口腔内器官的特征点。FDP参数包括特征点坐标、纹理坐标、网格的标度、纹理面部、动画定义表等脸部的特征参数。FAP是MPEG-4标准中定义的一组人脸动画参数,可以再现绝大多数自然的人脸表情和唇动。MPEG-4共有68个FAP,其中FAPI和FAPZ被称作高级FAP,可以预先定义好一些基本的、不同的唇形,其他的唇形可以由这些基本的唇形线性组合而成;同样,表情FAP也可用几种基本的表情线性组合出各种丰富的表情。除高级FAP外,其他的普通FAP分别定义了人脸某一小区域的运动。除高级FAP外,其他的普通FAP分别定义了人脸一些小区域的运动和头部的转动,其中左眼和右眼上眼皮的上下运动则分别通过FAP19和FAP20描述。这些运动描述了人脸表情很细致的变化,譬如眉毛的上翘和嘴角的撅起,并且这些FAP都和FDP中定义的组有密切的关系。
而基于肌肉模型的动画方法主要基于Waters的肌肉模型。该肌肉模型将肌肉分为两个类型:起拉伸作用的线性/平行肌和起收缩作用的括约肌。线性肌肉的一端依附在骨头上,因而是静态的,另一端深入皮肤的软组织。通过肌肉直接移动在其影响域内的质点变形网格,来模拟脸部表情。在Waters的方法中,一个肌肉的定义包括:向量域(影响域)方向、初始点和插入点坐标以及位移大小等。由于此模型的简洁性和脸部网格的独立性,它被广泛的使用。上述两种人脸动画方法的基本思想都是先按照一定的原则在三维人脸网格模型上选择控制点,再由控制点的运动位移和它对非控制点的影响因子,计算出非控制点的运动位移,最后根据计算结果移动非控制点,进而驱动三维网格模型运动。这两种方法中都没有专门针对人眼闭合运动给出具体的网格点运动控制方法。同时,由于受到所选取的控制点位置和数目的限制,许多对眼部运动效果起到重要作用但没有被选作控制点的其他网格点则只能通过某种控制算法在控制点的驱动下进行运动位移,其运动规律不清晰,无法逼真的模拟人眼闭合运动,仿真结果的真实性较差。
2.眼睛运动模拟
除了对眼外部区域的运动模拟以外,对眼部动画的模拟还集中在对眼睛(眼球)运动的模拟。人们基于Kendon和Argyle对gaze在社会交往中的作用的研究分析各种眼睛运动对情感变化和信息交流所起到的具体作用并根据自己的研究对眼睛运动进行多样的行为建模。其中主要是对eye gaze行为的研究和行为建模。例如,Colburn等提出了一种分层状态机的方法。Pelachaud等基于眼睛跟踪数据利用Bayesian Belief Net产生多样的gaze行为。同时,也人对眨眼频率与情感的关系进行研究并提出一系列不同情绪下对应的眨眼频率。例如,高频率(36blinks/min)能传递消极情绪。而较低频率的眨眼(9blink/min)能给人睿智的印象。这些研究提高了眼部运动模拟的真实感,但都没有涉及对人眼闭合运动的研究,因此存在一定的局限性。
3.对人眼闭合运动的模拟
根据专利检索,申请号为200910021321.9,名称为“一种虚拟人眼部运动控制方法”的发明专利申请中提出一种基于摆动导杆机构模型的人眼闭合运动模拟方法。此方法能较好的模拟正常状态下人眼的闭合运动,但由于受到摆动导杆机构模型的限制,运动控制参数数量有限,运动规律单一,无法模拟出不同情感下丰富的人眼闭合运动,无法进一步实现细腻的眼睛运动。
发明内容
为了克服现有技术在模拟人眼闭合运动时对网格点控制性不强,仿真结果真实感不强这一缺点,本发明提出了一种虚拟人眼部情感表现模拟方法,以弥补上述方法在网格点程度控制方面的不足,提高人眼动动画的真实感。
本发明解决其技术问题所采用的技术方案包括以下步骤:
首先获取三维人眼网格模型,即三维网格数据。生理结构上人的眼部是基于面部存在的,故欲获得人眼的网格数据即需要获得首先获取三维人脸网格模型。获取三维人脸网格模型的方法主要有采用三维激光扫描仪扫描真实人头生成人脸的三维网格模型或是通过MAYA等三维建模软件手工建立人脸三维模型。此外,通过Poser等专业人体建模软件,从其模型库中直接导出所需的人头模型及相应的纹理信息。本发明采用的三维人脸网格模型是直接从Poser7.0中直接导出的。
其次,根据眼部的运动特性设计运动控制点。按照以下方法在模型的眼部区域选择网格点作为运动控制点:通过对人眼闭合动作的特点进行分析,可将眼皮的闭合运动当作是在上眼睑边缘点的带动下所做的弹性弧形拉伸,因此,参照MPEG-4中对眼部FDP控制点的定义,选取上眼皮边缘处的所有网格点作为运动控制点。在网格模型中选出上眼皮边缘的最高点及两个眼角点,以两个眼角点的连线作为一条边,以平行于该边并经过最高点的直线作为另一条边,进而划分出一个矩形区域,并在此区域中进行边缘控制点的选取;设定XOY坐标系,X轴平行于两眼角点的连线,基于矩形区域边界条件的约束,统计出落在该区域内的全部网格点,共Q个,将矩形区域沿X轴方向均分为Q个子区间,在落入每个子区间的所有网格点中求出Y坐标值最小的网格点,即该子区域内的最低点,作为候选边界点;从左端眼角点开始随着X坐标值的增大,边缘控制点的Y坐标值也先逐渐增至最高点而后又逐渐减小到右端眼角点,从而根据这一条件从候选点中筛选出边界点作为运动控制点,排除非边界点。
再次,采用曲柄摇杆机构模型驱动边界控制点的运动,模拟真实的眼部运动。
曲柄摇杆机构由四个构件组成,分别是曲柄、连杆、摇杆和机架。所述的机架就是机构中固定不动的构件,曲柄是能够作整周回转运动的连架杆,连架杆是与机架相连的构件,连杆是两个连架杆各自不与机架相连的一端相互连接构成的构件,摇杆是只能在一定范围内摆动的连架杆。曲柄与机架,曲柄与连杆,连杆与摇杆,摇杆与与机架分别构成转动副,即组成运动副的两构件只能绕某一轴线作相对转动的运动副;其中,曲柄与机架构成周转副,即组成转动副的能相对整周转动的两个转动副。根据曲柄摇杆机构的运动原理,当曲柄为原动件,即机构中按给定的已知运动规律独立运动的构件称为原动件,摇杆为从动件,即机构中其余的活动构件称为从动件时,曲柄能够绕机架的固定铰链做整周转动,并可将曲柄的连续转动,通过不直接与机架相联的连杆转变成摇杆的往复摆动。同样,利用人的眼球近似为球体这一特性,将人眼眼皮边界点的运动轨迹看作是一段圆弧,假设眼皮边界点位于摇杆机构中摇杆上的任意一点,根据需求设定曲柄的旋转角速度为控制参数,根据机架、曲柄、摇杆之间的位置关系和曲柄的初始安装位置,以及输入的曲柄转动角速度参数,计算出眼皮边界点在任意时刻的空间位置或转过的角度,并以此驱动三维网格点运动,从而模拟出眼皮的闭合运动,生成具有真实感的三维人眼动画。其中,在设定机架、曲柄、摇杆之间的位置关系和曲柄的初始安装位置需要遵守以下原则:
1.曲柄、连杆、摇杆、机架中最短杆和最长杆的长度和必须小于或者等于其他两杆的长度和,并且组成周转副的两杆中必须有一杆是四杆中的最短杆。
2.曲柄、连杆、摇杆、机架的初始位置不能重叠于机架方向的水平线上,摇杆与机架连线的初始夹角须为钝角。
本发明的有益效果是:结合机构学原理进行运动控制,根据摇杆机构的运动特性,摇杆可在曲柄的带动下在一定范围内做往复运动,因此采用同一个数学模型不仅可以实现连续时间情况下眼睛张开与闭合这样相反的运动过程,而且可以通过调整不同杆之间的位置关系和曲柄初始安装位置等参数来生成更丰富的反映不同情感的眼睛闭合运动,其数学模型简单,物理意义明确,控制简单,容易实现且逼真度高。
下面结合附图和实施例对本发明进一步说明。
附图说明
图1为MPEG-4中眼部FDP的定义;
图2为MPEG-4中眼部FDP定义的左眼放大图;
图3为本发明所述的人眼运动控制操作流程图;
图4为通过Poser7.0导出的三维人脸网格模型示意图;
图5为导出的三维人脸网格模型眼部区域的网格点分布情况示意图;
图6为本发明实施例的一种对图3人脸网格模型中人眼部分的控制点设计方式示例图;
图7为摇杆机构运动原理简图;
图8为最大旋转角度计算方法示意图。
具体实施方式
方法实施例:本实施例是根据附图2所示的操作流程,并基于附图5的一个简单实施方案。
首先可以通过三维激光扫描仪扫描真实人脸得到原始的三维人脸网格点模型,或是通过3DS MAX或者MAYA等三维建模软件,由设计人员手工建立人脸三维模型,也可以是通过Poser等专业人体建模软件,从其模型库中直接导出所需的人头部模型,得到附图4。
然后通过计算机输入设备对原始三维网格模型中的人眼部分进行控制点设计。为了获得更精细的眼部运动模拟效果,根据人们对人眼闭合运动特征的视觉直观认识,并参照MPEG-4标准中对眼部FDP控制点的定义,增加上睑缘处控制点的个数,选取上眼睑边缘曲线上的全部网格点作为运动控制点,如附图6中上眼睑边缘处采用黑色实心圆点表示的网格点。在该发明中,根据MEPG-4中对人眼FDP的定义,在网格模型中选出上眼皮边缘的最高点(FDP 3.1)及两个眼角点(FDP 3.7,3.11),以两个眼角点(FDP 3.7,3.11)的连线为一条边,以平行于该边并经过最高点(FDP 3.1)的直线作为另一条边限定出一个矩形区域,如图2所示,并在此区域中进行边缘控制点的选取。设定XOY坐标系,X轴平行于两个眼角点的连线,通过矩形区域边界条件的限制,统计出落在此区域中的全部网格点,共Q个,将矩形区域沿X轴向平均划分为Q个子区间,在落入每个子区间的所有网格点中求出y坐标值最小的点,即该子区域中的最低点,作为候选边界点。从左端眼角点(FDP 3.11)开始随着x坐标值的增大,边缘控制点的y坐标值也应先逐渐增至最高点(FDP 3.1)而后又逐渐减小到右端眼角点(FDP3.7),即其y坐标值应满足关系:yFDP3.11<y1<y2<...yFDP3.1>yn>...yFDP3.7,从而根据这一条件从候选点中确定出边界点,排除其他非边界点。
再次,采用曲柄摇杆机构模型驱动边界控制点的运动,模拟真实的眼部运动。
在介绍具体模型的组建之前,首先解释一些与机构相关的基本概念。
构件:任何机器或机构都是由多个构件组合而成的,它是指机器或机构中的每一个独立的运动单元体。构件可以是单一的零件,也可以是多个零件的刚性联接体。组成同一构件的各零件之间不能有相对运动。
运动链:两个以上的构件通过运动副的联接而构成的系统称为运动链。
机构:在运动链中将某一构件加以固定而成为机架,则此运动链便成为机构。
运动副:两个构件通过直接接触所形成的可动联接称为运动副。而两构件上能够参加接触而构成运动副的表面称为运动副元素。
转动副:组成运动副的两构件只能绕某一轴线作相对转动的运动副。
周转副:组成转动副的能相对整周转动的两个转动副。(不能作整周转动的,则称为摆动副)
原动件:机构中按给定的已知运动规律独立运动的构件称为原动件。
从动件:机构中其余的活动构件称为从动件。
机架:机构中固定不动的构件。
连架杆:与机架相连的构件。
连杆:两个连架杆各自不与机架相连的一端相互连接构成的构件。
曲柄:能够作整周回转运动的连架杆。
摇杆:只能在一定范围内摆动的连架杆。
曲柄摇杆机构由四个构件组成,分别是曲柄、连杆、摇杆和机架。曲柄与机架,曲柄与连杆,连杆与摇杆,摇杆与与机架分别构成转动副。其中,曲柄与机架构成周转副。根据曲柄摇杆机构的运动原理,当曲柄为原动件,摇杆为从动件时,曲柄能够绕机架的固定铰链做整周转动,并可将曲柄的连续转动,通过不直接与机架相联的连杆(中间构件)转变成摇杆的往复摆动。同样,利用人的眼球近似为球体这一特性,将人眼眼皮边界点的运动轨迹看作是一段圆弧,假设眼皮边界点位于摇杆机构中摇杆上的任意一点,根据需求设定曲柄的旋转角速度为控制参数,根据机架、曲柄、摇杆之间的位置关系和曲柄的初始安装位置,以及输入的曲柄转动角速度参数,计算出眼皮边界点在任意时刻的空间位置或转过的角度,并以此驱动三维网格点运动,从而模拟出眼皮的闭合运动,生成具有真实感的三维人眼动画。其中,在设定机架、曲柄、摇杆之间的位置关系和曲柄的初始安装位置需要遵守以下原则:
1.曲柄、连杆、摇杆、机架中最短杆和最长杆的长度和必须小于或者等于其他两杆的长度和并且组成周转副的两杆中必须有一杆是四杆中的最短杆。
2.在实际运动中,由于人眼初始一般为自然张开状态。因此,四构件的初始位置不能重叠于机架方向的水平线上,摇杆与机架连线的初始夹角须为钝角。
机构模型运动简图如图7所示。为了对该机构进行运动分析,如图7先建立直角坐标系,并将各构件以矢量形式表示出来。(取轴Y与l4一致,并取轴Y为各构件方位角θ的起始线,沿逆时针方向计量为正)。所采用的摇杆机构模型由4个构件组成,其中构件4为机架,属于机构中的固定部分;构件1为原动件(曲柄),构件2为连杆,构件3为从动件(导杆)。构件1与机架4和构件2分别在接合处O′点和M点分别构成转动副;构件2还与构件3在接合点N处构成转动副,构件3和机架4在接合处O点构成转动副。由四杆机构的构造理论,可知四杆机构有曲柄的条件是各杆的长度需满足杆长条件(最短杆与最长杆的长度和应小于或等于其他两杆的长度和)且组成周转副的两杆中必有一杆为四杆中的最短杆。上述条件满足后,其最短杆参与构成的转动副都是周转副。因此,我们在构造摇杆模型时取杆1为最短杆,则杆1为周转副,杆2和杆3是摆转副。我们在模拟眼睑运动时取O点位眼球中心点,OO′的长度r等于眼球半径;杆1的杆长为l1,杆1处于初始位置时与机架4的夹角为θ1;杆2与杆1通过接合处M点相连,杆2的杆长为l2,与机架4的夹角为θ2;杆2与杆3通过接合点N相连,杆3的杆长为l3,与机架的夹角为θ3;杆3通过O点与机架4相连接。杆1绕O′点以角速度ω做圆周运动,然后通过杆2的连接,带动杆3也将做绕O点旋转的圆周运动。假设上眼睑边缘上的任一控制点K位于杆3上某固定点处,就可以通过上述机构模型模拟出边界控制点的运动轨迹。
取θ3max为眼睑由正常睁眼状态至完全闭合状态边界控制点绕以左右眼球中心连线为旋转轴所转过的角度,具体计算方法为:
参照MPEG-4中眼部FDP的定义,取上眼睑边缘的最高网格点(FDP 3.1/3.2),下眼睑边缘的最低网格点(FDP 3.3/3.4)及眼球中心点O作为三角形的三个顶点,如附图8,根据网格点在三维空间的位置坐标计算出三角形的三边长度,再应用余弦定理即可求出眼睛由正常状态至完全闭合时网格点转过的角度θ3max;
参见附图8,由机构运动原理可知,当原动杆1与轴Y夹角为0或180°时,从动杆3与轴X之间的夹角最大,通过改变外部控制参数θ3的初始值(0<θ3<θ3max),可以有效地控制眼睛的闭合程度,实现各种位置的闭合,模拟各种不同的闭眼动作状态。
下面结合附图7,通过数学模型具体阐述闭合过程的运动控制原理:
(1)位置分析,由图7可写出机构各杆所构成的矢量封闭方程:
l1+l2=l3+l4(1)
并且有θ4=θ3+π/2(2)
以复数形式表示为
展开后,得
l1cosθ1+l2cosθ2=l4+l3cosθ4(4)
l1sinθ1+l2sinθ2=l3sinθ4(5)
令
A=2l1l3sinθ1(6)
B=2l3(l1cosθ1-l4)(7)
则A sinθ4+B cosθ4+C=0(9)
解之可得
但考虑到实际运动过程中,l3与X轴的夹角θ3不可能为钝角,故取解
(2)速度分析
式(13)两边都除以得
式(14)和式(15)都取实部,得
(3)加速度分析
将式(13)对时间t取导数,得
式(18)两边都除以得
式(19)和式(20)都取实部,得出
说明:ε2和ε3分别代表杆2和杆3的加速度。
由上述分析可知,改变角速度参数ω1可以控制眼皮的闭合速度,改变角度参数θ3(0<θ3<θ3max),可以控制眼睛闭合的程度,实现半闭、全闭等不同程度的闭眼动作,从而模拟出真实的人眼闭合动作动画。同时,通过预先改变摇杆的结构(l1,l2,l3,l4,θ1)可更灵活的控制ω3的大小和变化速度。
本发明实施例最终获得的人眼运动控制效果与现有技术相比,引入摇杆机构模型,丰富了人眼闭合运动的细节,有效地增强了虚拟人眼部运动的仿真效果,能够更细腻和准确的模拟出不同的人眼闭合动作过程,运动控制的数学模型简单,物理意义明确,易于实现,效果逼真。
Claims (1)
1.一种虚拟人眼部情感表现模拟方法,其特征在于包括下述步骤:
首先,获取三维人眼网格模型,即三维网格数据;
其次,根据眼部的运动特性在模型的眼部区域选择网格点作为运动控制点:
选取上眼皮边缘处的所有网格点作为运动控制点,在网格模型中选出上眼皮边缘的最高点及两个眼角点,以两个眼角点的连线作为一条边,以平行于该边并经过最高点的直线作为另一条边,进而划分出一个矩形区域,并在此区域中进行边缘控制点的选取;设定XOY坐标系,X轴平行于两眼角点的连线,基于矩形区域边界条件的约束,统计出落在该区域内的全部网格点,共Q个,将矩形区域沿X轴方向均分为Q个子区间,在落入每个子区间的所有网格点中求出Y坐标值最小的网格点,即该子区域内的最低点,作为候选边界点;从左端眼角点开始随着X坐标值的增大,边缘控制点的Y坐标值也先逐渐增至最高点而后又逐渐减小到右端眼角点,从而根据这一条件从候选点中筛选出边界点作为运动控制点,排除非边界点;
再次,采用曲柄摇杆机构模型驱动边界控制点的运动,模拟真实的眼部运动:
曲柄摇杆机构包括曲柄、连杆、摇杆和机架,曲柄与机架,曲柄与连杆,连杆与摇杆,摇杆与与机架分别构成转动副,其中,曲柄与机架构成周转副;当曲柄为原动件,摇杆为从动件时,曲柄能够绕机架的固定铰链做整周转动,并可将曲柄的连续转动,通过不直接与机架相联的连杆转变成摇杆的往复摆动,假设眼皮边界点位于摇杆机构中摇杆上的任意一点,根据需求设定曲柄的旋转角速度为控制参数,根据机架、曲柄、摇杆之间的位置关系和曲柄的初始安装位置,以及输入的曲柄转动角速度参数,计算出眼皮边界点在任意时刻的空间位置或转过的角度,并以此驱动三维网格点运动,从而模拟出眼皮的闭合运动,生成具有真实感的三维人眼动画;其中,在设定机架、曲柄、摇杆之间的位置关系和曲柄的初始安装位置需要遵守以下原则:
1)曲柄、连杆、摇杆、机架中最短杆和最长杆的长度和必须小于或者等于其他两杆的长度和,并且组成周转副的两杆中必须有一杆是四杆中的最短杆;
2)曲柄、连杆、摇杆、机架的初始位置不能重叠于机架方向的水平线上,摇杆与机架连线的初始夹角须为钝角。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100581218A CN102129706A (zh) | 2011-03-10 | 2011-03-10 | 一种虚拟人眼部情感表现模拟方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011100581218A CN102129706A (zh) | 2011-03-10 | 2011-03-10 | 一种虚拟人眼部情感表现模拟方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102129706A true CN102129706A (zh) | 2011-07-20 |
Family
ID=44267780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011100581218A Pending CN102129706A (zh) | 2011-03-10 | 2011-03-10 | 一种虚拟人眼部情感表现模拟方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102129706A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103105998A (zh) * | 2012-01-19 | 2013-05-15 | 河南工业大学 | 一种人机交互方法及系统 |
CN103279969A (zh) * | 2013-05-08 | 2013-09-04 | 中国科学技术大学 | 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法 |
CN103632389A (zh) * | 2012-07-17 | 2014-03-12 | 索尼公司 | 在cg角色中实现更好眼线的系统与方法 |
CN103903294A (zh) * | 2014-03-28 | 2014-07-02 | 西北工业大学 | 三维虚拟人嘴部运动的实现方法 |
US10726584B2 (en) | 2018-11-28 | 2020-07-28 | International Business Machines Corporation | Displaying a virtual eye on a wearable device |
CN113487711A (zh) * | 2021-07-23 | 2021-10-08 | 北京达佳互联信息技术有限公司 | 虚拟形象的眨眼控制方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6532011B1 (en) * | 1998-10-02 | 2003-03-11 | Telecom Italia Lab S.P.A. | Method of creating 3-D facial models starting from face images |
CN101149840A (zh) * | 2006-09-20 | 2008-03-26 | 清华大学 | 一种复杂表情仿真系统及其实现方法 |
CN101533523A (zh) * | 2009-02-27 | 2009-09-16 | 西北工业大学 | 一种虚拟人眼部运动控制方法 |
-
2011
- 2011-03-10 CN CN2011100581218A patent/CN102129706A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6532011B1 (en) * | 1998-10-02 | 2003-03-11 | Telecom Italia Lab S.P.A. | Method of creating 3-D facial models starting from face images |
CN101149840A (zh) * | 2006-09-20 | 2008-03-26 | 清华大学 | 一种复杂表情仿真系统及其实现方法 |
CN101533523A (zh) * | 2009-02-27 | 2009-09-16 | 西北工业大学 | 一种虚拟人眼部运动控制方法 |
Non-Patent Citations (4)
Title |
---|
曾丹 等: "人眼3D肌肉控制模型", 《计算机辅助设计与图形学学报》, vol. 18, no. 11, 30 November 2006 (2006-11-30) * |
樊养余 等: "一种人眼运动及表情仿真方法", 《计算机仿真》, vol. 27, no. 2, 28 February 2010 (2010-02-28) * |
程义民 等: "一种人眼运动及表情的仿真方法", 《系统仿真学报》, vol. 19, no. 11, 30 June 2007 (2007-06-30) * |
蔡尚书 等: "人眼模型及其运动控制", 《中国科学院研究生院学报》, vol. 21, no. 2, 30 April 2004 (2004-04-30) * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103105998A (zh) * | 2012-01-19 | 2013-05-15 | 河南工业大学 | 一种人机交互方法及系统 |
CN103105998B (zh) * | 2012-01-19 | 2015-08-19 | 河南工业大学 | 一种人机交互方法及系统 |
CN103632389A (zh) * | 2012-07-17 | 2014-03-12 | 索尼公司 | 在cg角色中实现更好眼线的系统与方法 |
CN103279969A (zh) * | 2013-05-08 | 2013-09-04 | 中国科学技术大学 | 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法 |
CN103279969B (zh) * | 2013-05-08 | 2016-01-20 | 中国科学技术大学 | 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法 |
CN103903294A (zh) * | 2014-03-28 | 2014-07-02 | 西北工业大学 | 三维虚拟人嘴部运动的实现方法 |
CN103903294B (zh) * | 2014-03-28 | 2017-06-23 | 西北工业大学 | 三维虚拟人嘴部运动的实现方法 |
US10726584B2 (en) | 2018-11-28 | 2020-07-28 | International Business Machines Corporation | Displaying a virtual eye on a wearable device |
US11151750B2 (en) | 2018-11-28 | 2021-10-19 | International Business Machines Corporation | Displaying a virtual eye on a wearable device |
CN113487711A (zh) * | 2021-07-23 | 2021-10-08 | 北京达佳互联信息技术有限公司 | 虚拟形象的眨眼控制方法、装置、电子设备及存储介质 |
CN113487711B (zh) * | 2021-07-23 | 2024-02-09 | 北京达佳互联信息技术有限公司 | 虚拟形象的眨眼控制方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101533523B (zh) | 一种虚拟人眼部运动控制方法 | |
CN102129706A (zh) | 一种虚拟人眼部情感表现模拟方法 | |
Parke et al. | Computer facial animation | |
CN100527170C (zh) | 一种复杂表情仿真系统及其实现方法 | |
KR101002619B1 (ko) | 표정 구현이 가능한 얼굴 로봇 | |
CN100440257C (zh) | 一种虚拟人群运动的三维可视化方法 | |
CN103208133A (zh) | 一种图像中人脸胖瘦的调整方法 | |
Bui | Creating emotions and facial expressions for embodied agents | |
CN104599309A (zh) | 一种基于元表情的三维动画角色的表情生成方法 | |
CN102157010A (zh) | 基于分层建模及多体驱动的三维人脸动画实现方法 | |
CN103854306A (zh) | 一种高真实感的动态表情建模方法 | |
Pan et al. | Realistic and interactive robot gaze | |
CN104268921A (zh) | 3d人脸表情控制方法及系统 | |
TW201121628A (en) | Facial expression changeable robot head and method of manufacturing virtual face skin thereof | |
CN103279969B (zh) | 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法 | |
Lin et al. | An expressional simplified mechanism in anthropomorphic face robot design | |
CN102294122B (zh) | 仿真机器人笑表情肌肉动作机构 | |
CN1383102A (zh) | 一种三维人脸动画的制作方法 | |
Hertzmann et al. | Physics-based characters | |
CN101566828A (zh) | 一种虚拟人嘴部运动控制方法 | |
Huang et al. | A novel approach of eye movement and LExpression | |
Chen et al. | A new tongue model based on muscle-control | |
CN202506106U (zh) | 迎宾机器人的眼部结构 | |
Ke et al. | Facial expression on robot SHFR-III based on head-neck coordination | |
CN103903294B (zh) | 三维虚拟人嘴部运动的实现方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20110720 |