CN1599406A - 图像处理方法和装置及其程序 - Google Patents

图像处理方法和装置及其程序 Download PDF

Info

Publication number
CN1599406A
CN1599406A CNA200410089963XA CN200410089963A CN1599406A CN 1599406 A CN1599406 A CN 1599406A CN A200410089963X A CNA200410089963X A CN A200410089963XA CN 200410089963 A CN200410089963 A CN 200410089963A CN 1599406 A CN1599406 A CN 1599406A
Authority
CN
China
Prior art keywords
mentioned
center
distance
facial photo
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA200410089963XA
Other languages
English (en)
Inventor
陈涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of CN1599406A publication Critical patent/CN1599406A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Abstract

图像处理方法和装置及其程序,本发明可正确且快速决定修整区域。图像处理方法是:将对于脸部照片图像的两瞳孔间距离D1按照式(44)进行演算得到的值L1a、L1b、L1c,分别作为以两眼间中心位置Pm为横方向中心的脸部边框横幅、从中心位置Pm到脸部边框上边的距离、从中心位置Pm到脸部边框下边的距离,决定脸部边框,利用该脸部边框设定修整区域。L1a=D×3.250;L1b=D×1.905;L1c=D×2.170。

Description

图像处理方法和装置及其程序
技术领域
本发明涉及对脸部照片图像设定修整区域的图像处理方法和装置及其程序、数字照相机、照片盒装置。
背景技术
在护照和许可证的交付申请或者履历书的制作等时,常常要求提供本人脸部照像的预先确定输出规格的照片(以下称证明照片)。为此,以前利用自动进行设立了对利用者摄影用的摄影室、对坐在摄影室内椅子上的利用者摄影、将利用者证明照片用的脸部照片图像记录在落片上的证明照片落片的证明照片自动制作装置。这种自动制作装置是大型的,受到设置场所的限制,因此利用者为了取得证明照片,必须前往寻找设置自动制作装置的地方,不方便。
为了解决这个问题,专利文献1提出了一种方法,即:在用于证明照片制作的脸部照片图像(拍照脸部的图像)用监视器等显示装置显示的状态下,指示显示的脸部照片图像的头顶部位置和颚顶端位置时,根据计算机指示的2个位置和证明照片的输出规格,求出脸部的扩大缩小率、脸部的位置,扩大缩小图像,同时,修整扩大缩小了的脸部照片图像,使得扩大缩小的图像中的脸部配置在证明照片的规定位置,形成证明照片图像。按照这种方法,利用者可以委托比证明照片自动制作装置存在多的DPE店制作证明照片,并且,也可以在手头存有的照片中,将记录了拍照良好的中意照片的胶片或记录媒体拿到DPE店,从中意的照片制成证明照片。
然而,采用这种技术,操作者必须要对显示的脸部照片图像分别进行指示头顶部位置和颚顶端位置的烦杂操作,特别是在制作很多利用者的证明照片时,操作者的负担很大。尤其是在显示的脸部照片图像中脸部区域面积小和脸部照片图像的析象清晰度粗糙等的情况下,操作者很难迅速而正确地指示头顶部位置和颚顶端位置,存在不可能迅速制作适当的证明照片的问题。
专利文献2提出了一个方法,即:检测脸部照片图像中的头顶部位置和两眼睛的位置,同时从检测的头顶部位置和两眼睛的位置推定颚顶端位置,设定修整区域。采用这种方法,操作者不必指示头顶部位置和颚顶端位置,即可根据脸部照片图像制成证明照片。
专利文献1:特开平11-341272号公报
专利文献2:特开2002-152492号公报
然而,在专利文献2记载的方法中,除了眼睛的检测外,头顶部的检测也是必要的,处理烦杂。
并且,在头顶部检测中,虽然头顶部位于眼睛的上部,也还要从脸部照片图像全体检测头顶部,当然是耗费了处理时间,也不可能根据在脸部照片图像拍照的人物服装颜色正确检测头顶部,结果是存在不能设定适当的修整区域的问题。
发明内容
本发明针对上述情况,其目的是提供一种可以正确且迅速地设定脸部照片图像中的修整区域的图像处理方法和装置及其程序。
本发明的第一图像处理方法,将利用在脸部照片图像中的两眼间之距离D和系数U1a、U1b、U1c按照式(1)进行演算得到的值L1a、L1b、L1c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框上边的距离、从上述中心位置Gm到上述脸部边框下边的距离,取得上述脸部边框。
再根据上述脸部边框的位置和大小,设定与所定输出规格一致的上述脸部照片图像的修整区域。
其特征是:上述系数U1a、U1b、U1c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut1a、Ut1b、Ut1c按式(2)进行演算得到的各值Lt1a、Lt1b、Lt1c,分别与上述取样脸部照片图像的脸中横幅、从上述两眼间中心位置到上述脸部上端的距离、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L1a=D×U1a
L1b=D×U1b                                          (1)
L1c=D×U1c
Lt1a=Ds×Ut1a
Lt1b=Ds×Ut1b                                      (2)
Lt1c=Ds×Ut1c
这里,所谓上述「脸部的横幅」是脸部在横方向(两眼睛排列方向)的最大宽度,可以作为例如从左耳到右耳的距离。所谓「脸部的上端」是在与上述横方向直交的纵方向的脸部最上部的位置,可以作为例如头顶部。所谓「脸部的下端」是在上述纵方向的脸部最下部的位置,可以作为例如颚的顶端。
人的脸部大小各不相同,除特别之例以外,脸部大小(横幅、纵幅)都有与两眼间距离对应的关系,并且从眼睛到头顶部的距离和从眼睛到颚顶端的距离也都有与两眼间距离对应的关系。本发明的第1图像处理方法,着眼于这一点,利用多个取样脸部照片的图像,统计地求出表示脸部横幅、从眼睛到脸部上端的距离、从眼睛到脸部下端的距离分别与两眼间距离的关系的系数U1a、U1b、U1c,根据脸部照片图像的眼睛的位置和两眼间的距离,取得脸部边框,设定修整区域。
本发明中,所谓眼睛的位置,并不限定在眼睛的中心点,也可以是瞳孔的位置,外眼角的位置等。
两眼间的距离,如图30所示,希望采用两眼睛的瞳孔间距离d1,然而如该图中的d2、d3、d4、d5所示,也可以采用内眼角间的距离、眼睛中心点间的距离、一个眼睛的外眼角与另一个眼睛的中心点间的距离、两眼睛的外眼角间的距离。当然也可以采用未图示的一个眼睛的瞳孔与另一个眼睛的中心点间的距离、一个眼睛的瞳孔与另一个眼睛的外眼角间的距离、一个眼睛的外眼角与另一个眼睛的眼角间的距离。
本发明的第2图像处理方法,从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U2a、U2c根据式(3)进行演算得到的L2a、L2c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,同时将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框。
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域。
其特征是:上述系数U2a、U2c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut2a、Ut2c按照式(4)进行演算得到的各值Lt2a、Lt2c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间的中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L2a=D×U2a
L2c=H×U2c                                 (3)
Lt2a=Ds×Ut2a
Lt2b=Hs×Ut2c                              (4)
本发明的第3图像处理方法,从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U3a、U3b、U3c根据式(5)进行演算得到的值L3a、L3c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,同时将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框。
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域。
其特征是:上述系数U3a、U3b、U3c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut3a、Ut3b、Ut3c按照式(6)进行演算得到的各值Lt3a、Lt3c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间的中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L3a=D×U3a
L3c=D×U3b+H×U3c                              (5)
Lt3a=Ds×Ut3a
Lt3b=Ds×Ut3b+Hs×Ut3c                         (6)
本发明的第4图像处理方法,将利用脸部照片图像的两眼间距离D和系数U4a、U4b、U4c根据式(7)进行演算得到的值L4a、L4b、L4c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域。
其特征是:上述系数U4a、U4b、U4c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut4a、Ut4b、Ut4c按照式(8)进行演算得到的各值Lt4a、Lt4b、Lt4c,分别与以上述取样脸部照片图像的上述两眼间的中心位置为横方向中心的所定修整区域的横幅、从上述两眼间的中心位置到上述规定修整区域上边的距离、从上述两眼间的中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L4a=D×U4a
L4b=D×U4b                 (7)
L4c=D×U4c
Lt4a=Ds×Ut4a
Lt4b=Ds×Ut4b              (8)
Lt4c=Ds×Ut4c
本发明的第5图像处理方法,从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U5a、U5b、U5c根据式(9)进行演算得到的值L5a、L5b、L5c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域。
其特征是:上述系数U5a、U5b、U5c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut5a、Ut5b、Ut5c按照式(10)进行演算得到的各值Lt5a、Lt5b、Lt5c,分别与上述取样脸部照片图像的上述两眼间的中心位置为横方向中心的规定修整区域的横幅、从上述两眼间的中心位置到上述规定修整区域上边的距离、从上述两眼间的中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L5a=D×U5a
L5b=H×U5b                              (9)
L5c=H×U5c
Lt5a=Ds×Ut5a
Lt5b=Hs×Ut5b                           (10)
Lt5c=Hs×Ut5c
本发明的第6图像处理方法,从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U6a、U6b1、U6c1、U6b2、U6c2根据式(11)进行演算得到的值L6a、L6b、L6c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域。
其特征是:上述系数U6a、U6b1、U6c1、U6b2、U6c2是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2按照式(12)进行演算得到的各值Lt6a、Lt6b、Lt6c,分别与以上述取样脸部照片图像的上述两眼间的中心位置为横方向中心的规定修整区域的横幅、从上述两眼间的中心位置到上述规定修整区域上边的距离、从上述两眼间的中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L6a=D× U6a
L6b=D×U6b1+H×U6c1                        (11)
L6c=D×U6b2+H×U6c2
Lt6a=Ds×Ut6a
Lt6b=Ds×Ut6b1+Hs×Ut6c1                   (12)
Lt6c=Ds×Ut6b2+Hs×Ut6c2
也就是,本发明的第4、第5、第6的图像处理方法,代替第1、第2、第3图像处理方法的先求出脸部边框,再根据该脸部边框的位置和大小设定与规定输出规格一致的修整区域,而是根据眼睛的位置、两眼间的距离,或者根据眼睛的位置、两眼间的距离、从眼睛到头顶部的垂直距离H,直接设定进行修整的边框。
本发明的第1图像处理装置具有:
将利用在脸部照片图像的两眼间距离D和系数U1a、U1b、U1c按照式(13)进行演算得到的值L1a、L1b、L1c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框上边的距离、从上述中心位置Gm到上述脸部边框下边的距离,取得上述脸部边框的脸部边框取得部件。
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的修整区域设定部件。
其特征是:上述系数U1a、U1b、U1c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut1a、Ut1b、Ut1c按式(14)进行演算得到的各值Lt1a、Lt1b、Lt1c,分别与上述取样脸部照片图像的脸部横幅、从上述两眼间中心位置到上述脸部上端的距离、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L1a=D×U1a
L1b=D×U1b                              (13)
L1c=D×U1c
Lt1a=Ds×Ut1a
Lt1b=Ds×Ut1b                        (14)
Lt1c=Ds×Ut1c
这里,上述两眼间的距离,可以采用两眼瞳孔间的距离。这时,上述系数U1a、U1b、U1c的值希望在3.250×(1±0.05)、1.905×(1±0.05)、2.170×(1±0.05)的范围内。
本发明的第2图像处理装置具有:
从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H的头顶部检测部件。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U2a、U2c根据式(15)进行演算得到的L2a、L2c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,同时将上述垂直距离H作为以上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框的脸部边框取得部件。
根据上述脸部边框位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的修整区域设定部件。
其特征是:上述系数U2a、U2c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut2a、Ut2c按照式(16)进行演算得到的各值Lt2a、Lt2c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间的中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L2a=D×U2a
L2c=H×U2c                                (15)
Lt2a=Ds×Ut2a
Lt2b=Hs×Ut2c                             (16)
这里,上述两眼间的距离,可以采用两眼瞳孔间的距离。这时,上述系数U2a、U2c的值希望分别在3.250×(1±0.05)、0.900×(1±0.05)的范围内。
本发明的第3图像处理装置具有:
从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H的头顶部检测部件。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U3a、U3b、U3c根据式(17)进行演算得到的值L3a、L3c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离、同时将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框的脸部边框取得部件。
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修正区域的修正区域设定部件。
其特征是:上述系数U3a、U3b、U3c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut3a、Ut3b、Ut3c按照式(18)进行演算得到的各值Lt3a、Lt3c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间的中心位置到上述脸部下端的距离之差的绝对值的处理,最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L3a=D×U3a
L3c=D×U3b+H×U3c                              (17)
Lt3a=Ds×Ut3a
Lt3b=Ds×Ut3b+Hs×Ut3c                         (18)
这里,上述两眼间的距离,可以采用两眼瞳孔间的距离。这时,上述系数U3a、U3b、U3c的值希望分别在3.250×(1±0.05)、1.525×(1±0.05)、0.187×(1±0.05)的范围内。
本发明的第4图像处理装置具有:将利用脸部照片图像的两眼间距离D和系数U4a、U4b、U4c根据式(19)进行演算得到的值L4a、L4b、L4c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的修整区域设定部件。
其特征是:上述系数U4a、U4b、U4c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut4a、Ut4b、Ut4c按照式(20)进行演算得到的各值Lt4a、Lt4b、Lt4c,分别与以上述取样脸部照片图像的上述两眼间的中心位置为横方向中心的规定修整区域的横幅、从上述两眼间的中心位置到上述规定修整区域上边的距离、从上述两眼间的中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L4a=D×U4a
L4b=D×U4b                               (19)
L4c=D×U4c
Lt4a=Ds×Ut4a
Lt4b=Ds×Ut4b                            (20)
Lt4c=Ds×Ut4c
上述两眼间的距离,可以采用两眼瞳孔间的距离。这时,上述系数U4a、U4b、U4c的值分别在(5.04×范围系数)、(3.01×范围系数)、(3.47×范围系数)的范围内,该范围系数可以设定为(1±0.4)。
这里,上述范围系数希望是(1±0.25)。
上述范围系数更好是(1±0.10)。
上述范围系数最好是(1±0.05)。
本发明的第4图像处理装置,对应于本发明的第4图像处理方法,使用统计求出的系数U4a、U4b、U4c,根据脸部照片图像的眼睛的位置和两眼间的距离,直接设定修整区域。
这里,本申请的发明者,利用多个取样脸部照片图像(数千张)求出的上述系数分别是5.04、3.01、3.47(为了以下说明方便,称为系数U0),最希望用这些系数U0设定上述修整区域,然而由于使用的取样脸部照片图像的数量等,上述系数可能产生偏差,并且按照用途输出规格的严格程度也不同,因此,各系数可具有伸缩余地。
使用系数U0×(1±0.05)范围内的值作为上述系数U4a、U4b、U4c时,在输出规格严格的情况下(例如取得护照照片时),按照设定的修整区域进行修整得到的证明照片的合格率高。本申请发明者实际测试的结果,在取得护照照片的情况下,可获得90%以上的合格率。
照片证和许可证等证明照片,输出规格不如护照照片严格,可以使用系数U0×(1±0.10)范围内的值作为上述系数U4a、U4b、U4c。
在由携带电话机附属的摄像机取得的脸部照片图像修整脸部时,以及因普利克拉(プリクラ)等的证明照片以外的目的修整脸部时,输出规格更不严格,可以使用系数U0×(1±0.25)范围内的值作为上述系数U4a、U4b、U4c。
在「有脸部即可以」的输出规格时,系数可以有更大的伸缩余地,然而各系数比系数U0×(1+0.4)大时,在修整得到的图像中脸部将过小,在各系数比系数U0×(1-0.4)小时,整个脸部不可能进入修整区域内的可能性较高,因此,不管对于不怎么严格输出规格,也希望使用系数U0×(1±0.40)范围内的某个值作为上述系数U4a、U4b、U4c。
本发明第5图像处理装置具有:
从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H的头顶部检测部件。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U5a、U5b、U5c根据式(21)进行演算得到的值L5a、 L5b、L5c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的修整区域设定部件。
其特征是:上述系数U5a、U5b、U5c是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut5a、Ut5b、Ut5c按照式(22)进行演算得到的各值Lt5a、Lt5b、Lt5c,分别与以上述取样脸部照片图像的上述两眼间的中心位置为横方向中心的规定修整区域的横幅、从上述两眼间的中心位置到上述规定修整区域上边的距离、从上述两眼间的中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L5a=D×U5a
L5b=H×U5b                                (21)
L5c=H×U5c
Lt5a=Ds×Ut5a
Lt5b=Hs×Ut5b                          (22)
Lt5c=Hs×Ut5c
上述两眼间的距离,可以采用两眼瞳孔间的距离。这时,上述系数U5a、U5b、U5c的值分别在(5.04×范围系数)、(1.495×范围系数)、(1.89×范围系数)的范围内,该范围系数可设定为(1±0.4)。
输出规格严格时,上述范围系数设定为:(1±0.25)、(1±0.10)、(1±0.05)。
本发明的第6图像处理装置具有:
从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,并算出从上述眼睛到上述头顶部的垂直距离H的头顶部检测部件。
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U6a、U6b1、U6c1、U6b2、U6c2根据式(23)进行演算得到的值L6a、L6b、L6c,分别作为以上述脸部照片图像的上述两眼间的中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的修整区域设定部件。
其特征是:上述系数U6a、U6b1、U6c1、U6b2、U6c2是对多个上述取样脸部照片图像进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2按照式(24)进行演算得到的各值Lt6a、Lt6b、Lt6c,分别与以上述取样脸部照片图像的上述两眼间的中心位置为横方向中心的规定修整区域的横幅、从上述两眼间的中心位置到上述规定修整区域上边的距离、从上述两眼间的中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L6a=D×U6a
L6b=D×U6b1+H×U6c1                      (23)
L6c=D×U6b2+H×U6c2
Lt6a=Ds×Ut6a
Lt6b=Ds×Ut6b1+Hs×Ut6c1                       (24)
Lt6c=Ds×Ut6b2+Hs×Ut6c2
上述两眼间的距离,可以采用两眼瞳孔间的距离。这时,系数U6a、U6b1、U6c1、U6b2、U6c2的值分别在(5.04×范围系数)、(2.674×范围系数)、(0.4074×范围系数)、(0.4926×范围系数)、(1.259×范围系数)的范围内,该范围系数可以设定为(1±0.4)。
当输出规格严格时,上述范围系数最好设定为(1±0.25)、(1±0.10)、(1±0.05)。
脸部照片图像的眼睛位置的指定,可以比头顶部和颚顶端的指定更简单且正确地进行,所以本发明的图像处理装置中,可以由操作员指定脸部照片图像的眼睛位置,然而从减少人的操作、提高处理效率的观点出发,本发明的图像处理装置中,设置了眼睛检测部件,即:检测上述脸部照片图像的眼睛位置,并根据上述眼睛位置,算出上述两眼间的距离D和上述两眼间的中心位置Gm。
近年来,数字摄像机(包含附属于携带电话机的数字摄像机)的功能迅速提高,但
是数字摄像机显示画面的大小是有限度的。当希望在数字摄像机的显示画面确认脸部照片图像的脸部分时,以及需要仅将脸部图像发送到网络上的服务程序或者发送到显象室进行复制时,期望可以高效率地修整脸部图像的数字摄像机。
本发明的数字摄像机,将本发明的图像处理装置适用于数字摄像机,具有:
摄像部件;
取得由该摄像部件得到的脸部照片图像的修整区域的修整区域取得部件;
按照由该修整区域取得部件取得的上述修整区域,对上述脸部照片图像进行修整处理,得到修整图像的修整实行部件。
其特征是:上述修整区域取得部件是本发明的图像处理装置。
并且,本发明的图像处理装置可以适用于照片盒装置。即本发明的照相盒装置具有:
摄像部件;
取得由该摄像部件得到的脸部照片图像的修整区域的修整区域取得部件;
按照由该修整区域取得部件取得的上述修整区域,对上述脸部照片图像进行修整处理,得到修整图像的修整实行部件。
其特征是:上述修整区域取得部件是本发明的图像处理装置。
这里,所谓本发明的「照相盒装置」是对从摄像到取得照片复印品的过程进行自动处理的自动照相盒,当然设置在车站和街道的证明照片用照相盒装置也包含普利克拉(プリクラ)等。
还可以提供本发明的图像处理方法作为计算机实行的程序。
若采用本发明的第1图像处理方法和装置,利用脸部照片图像的眼睛位置、两眼间的距离取得脸部边框,再根据取得的脸部边框的大小和位置,设定与规定输出规格一致的脸部照片图像的修整区域,所以处理是简单的。
若采用本发明的第4图像处理方法和装置,利用脸部照片图像的眼睛位置、两眼间的距离直接设定修整区域,处理更简单。
脸部照片图像的眼睛位置的指定,可以比头顶部和颚顶端的指定更简单且正确地进行,因此本发明的脸部照片图像中的眼睛的位置,即使由操作者手动指定,操作者的负担也不那么大。并且,也可以设置眼睛检测部件进行自动检测,这时能够仅检测眼睛的位置,效率更高。
若采用本发明的第2和第3图像处理方法和装置,从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,再根据眼睛的位置、两眼间的距离、头顶部的位置取得脸部边框,由于将检测头顶部的范围限定在眼睛位置以上的部分,当然处理更快,而且不受人物衣服的颜色等影响,即可正确地检测头顶部的位置,设定适当的修整区域。
若采用本发明的第5和第6图像处理方法和装置,从脸部照片图像的眼睛位置以上的部分检测头顶部的位置,再根据眼睛的位置、两眼间的距离、头顶部的位置直接设定修整区域,由于将检测头顶部的范围限定在眼睛位置以上的部分,当然处理会更快,而且不受人物衣服的颜色等影响,即可正确地检测头顶部的位置,作为结果能设定适当的修整区域。
适用本发明的图像处理装置的数字摄像机和照相盒装置,可以高效率地修整脸部图像,得到质量良好的修整图像。特别是照相盒装置,即使被拍照人物的位置偏离了规定位置,也可以消除脸部缺少一部分等的事故。得到用户所希望的照片。
附图说明
图1是本发明第1实施例的图像处理系统A的构成方框图。
图2是眼睛检测部1的构成方框图。
图3眼睛中心位置的说明图。
图4(a)是水平方向的边缘检测过滤器图,
   (b)是垂直方向的边缘检测过滤器图。
图5是梯度矢量算出的说明图。
图6(a)是人物的脸部图,(b)是(a)所示人物脸部的眼睛和口附近的梯度矢量图。
图7(a)是规格化前的梯度矢量大小的立式坐标图,(b)是规格化后的梯度矢量大小的立式坐标图,(c)是5值化的梯度矢量大小的立式坐标图,(d)是规格化后的5值化梯度矢量大小的立式坐标图。
图8表示判别是用于第1参照数据学习的脸部的取样图像的例图。
图9表示判别是用于第2参照数据学习的脸部的取样图像的例图。
图10是脸部旋转的说明图。
图11是表示参照数据的学习手法的流程图。
图12是识别器的导出方法图。
图13是识别对象图像的阶段变形的说明图。
图14是眼睛检测部1的处理流程图。
图15是瞳孔中心位置检测部50的构成方框图。
图16是第2修整部10修整位置的说明图。
图17是2值化阈值求出方法的说明图。
图18是投票值加权的说明图。
图19是眼睛检测部1和瞳孔中心位置检测部50的处理流程图。
图20是修整区域取得部60a的构成方框图。
图21是图1所示图像处理系统A的处理流程图。
图22是本发明第2实施例的图像处理系统B的构成方框图。
图23是修整区域取得部60b的构成方框图。
图24是图22所示图像处理系统B的处理流程图。
图25是本发明第3实施例的图像处理系统C的构成方框图。
图26是图25所示图像处理系统C的处理流程图。
图27是本发明第4实施例的图像处理系统D的构成方框图。
图28是修整区域取得部60d的构成方框图。
图29是图27所示图像处理系统D的处理流程图。
图30是表示两眼间距离的例图。
具体实施方式
实施发明的最佳状态
以下,参照附图说明本发明的实施例。
图1是本发明第1实施例的图像处理系统A的构成方框图。如图所示,本实施例的图像处理系统A具有:识别在输入的照片图像S0中是否包含脸部,当不包含脸部时中断对照片图像S0的处理,当包含脸部(也就是照片图像S0是脸部照片图像)时检测左眼和右眼,得到包含两眼的位置Pa、Pb和两眼间的距离D(这里是图30所示两眼中心点间的距离d3)的信息Q的眼睛检测部1;根据来自眼睛检测部的信息Q检测两眼瞳孔的中心位置G′a、G′b,同时求出2个瞳孔间的距离D1(这里是图30所示距离d1),再根据信息Q包含的两眼位置Pa、Pb求出两眼间中心位置Pm的瞳孔中心位置检测部50;根据两眼间的中心位置Pm、瞳孔间距离D1、以及后述的第1存储部68a存储的系数U1a、U1b、U1c,算出脸部照片图像S0的脸部边框,再根据算出的脸部边框的位置和大小设定修整区域取得部60a;根据由修整区域取得部60a取得的修整区域,修整脸部照片图像S0,得到修整图像S5的第1修整部70;复制修整图像S5,得到证明照片的输出部80;存储系数U1a、U1b、U1c以及修整区域取得部60a和第1修整部70必需的其他数据(输出规格等)的第1存储部68a。
以下,详细说明图1所示图像处理系统A的构成。
首先,详细说明眼睛检测部1。
图2是眼睛检测部1的详细构成方框图。如图所示,眼睛检测部1具有:根据照片图像S0算出特征量C0的特征量算出部2;存储后述的第1和第2参照数据E1、E2的第2存储部4;根据特征量算出部2算出的特征量C0和第2存储部4内的第1参照数据E1,识别照片图像S0是否包含人物脸部的第1识别部5;当第1识别部5识别照片图像S0包含脸部时,根据特征量算出部2算出的脸部图像内的特征量C0和第2存储部4内的第2参照数据E2,识别该脸部包含的眼睛位置的第2识别部6;第1输出部7。
所谓眼睛检测部1识别的眼睛位置是从脸部的外眼角到内眼角之间的中心位置(用图3中×表示),如图3(a)所示在面向正面的眼睛时是与瞳孔的中心位置一样,但如图3(b)所示在面向右边的眼睛时,不是瞳孔的中心位置,位于偏离瞳孔中心的位置或者白眼珠的位置。
特征量算出部2根据照片图像S0算出用于脸部识别的特征量C0。当识别照片图像S0包含脸部时,如后所述从提取的脸部图像算出同样的特征量C0。具体地说,算出梯度矢量(也就是照片图像S0上和脸部图像上的各象素的浓度变化方向和变化大小)作为特征量C0。下面,说明梯度矢量的算出。首先,特征量算出部2对照片图像S0,由图4(a)所示水平方向的边缘检测滤波器进行滤波处理,检测照片图像S0的水平方向边缘。并且,特征量长出部2对照片图像S0,由图4(b)所示垂直方向的边缘检测滤波器进行滤波处理,检测照片图像S0的垂直方向边缘。然后,根据照片图像S0上各象素的水平方向边缘的大小H和垂直方向边缘的大小V,如图5所示,算出各象素的梯度矢量K。对于脸部图像也同样算出梯度矢量K。特征量算出部2如后述那样在照片图像S0和脸部图像变形的各阶段算出特征量C0。
这样算出的梯度矢量K,在如图6(a)所示人物脸部,如图6(b)所示,在眼睛和口的暗淡部分朝向眼睛和口的中央,在鼻子的明亮部分朝向鼻子外侧。并且,由于眼睛比口的浓度变化大,则梯度矢量K眼睛比口大。
然后,将该梯度矢量K的方向和大小作为特征量C0。梯度矢量K的方向为以梯度矢量K的规定方向(例如图5的×方向)为其准的0到359度的值。
这里,梯度矢量K的大小已规格化。其规格化的进行是:求出照片图像S0的全象素的梯度矢量K大小的立式坐标图,使直方图平滑化以便其大小均匀分布在照片图像S0各象素取得的值(8位时0-255),并修正梯度矢量K的大小。例如,梯度矢量K的大小较小,在如图7(a)所示梯度矢量K的大小偏于较小侧的立式坐标图分布时,在大小遍及0-255的全区域那样规格化梯度矢量K的大小,实现图7(b)所示的立式坐标图分布。此外,为了减少演算量,如图7(c)所示,对梯度矢量K的立式坐标图的分布范围进行5分割,5分割的频度分布如图7(d)所示希望在遍及5分割0-255值的范围规格化。
第2存储部4内存储的第1和第2参照数据E1、E2,对于从后述的取样图像选择的多个象素组合构成的每个多种类象素群,规定了构成各象素群的各象素特征量C0的组合的识别条件。
第1和第2参照数据E1、E2中,构成各象素群的各象素的特征量C0的组合和识别条件,通过由判定是脸部的多个取样图像和判定不是脸部的多个取样图像构成的取样图像群的学习,预先决定的。
本实施例中,在生成第1参照数据E1时,判别是脸部的取样图像具有30×30象素尺寸,如图8所示,对于1个脸部图像,两眼的中心间距离是10象素、9象素和11象素,采用在平面上±15度范围以3度为单位分阶段在两眼的中心间距离垂直旋转脸部(即旋转角度为-15度、-12度、-9度、-6度、-3度、0度、3度、6度、9度、12度、15度)的取样图像。因此,1个脸部图像的取样图像应有3×11=33个。图8中,仅表示旋转-15度、0度、+15度的取样图像。旋转的中心是取样图像的对角线交点。这里,若两眼的中心间距离是10象素的取样图像,则眼睛的中心位置完全相同。在以取样图像的左上角为原点的座标上设定该眼睛中心位置为(x1,y1)、(x2,y2)。在图面上上下方向的眼睛位置(即y1.y2)在所有取样图像上是同样的。
在生成第2参照数据E2时,判定是脸部的取样图像,具有30×30象素尺寸,如图9所示,对于1个脸部图像,两眼的中心间距离是10象素、9.7象素、10.3象素,采用在平面上±3度的范围以1度为单位分阶段在两眼的中心间距离垂直旋转脸部(即旋转角度为-3度、-2度、-1度、0度、1度、2度、3度)的取样图像。因此,1个脸部图像的取样图像应有3×7=21个。图9中,仅表示旋转-3度、0度、±3度的取样图像。旋转的中心是取样图像的对角线交点。这里,图面上上下方向的眼睛位置在所有取样图像上是同样的。为了将两眼的中心间距离设定为9.7象素和10.3象素,两眼的中心间距离将10象素的取样图像扩大缩小9.7倍或10.3倍,可以设定扩大缩小后的取样图像尺寸为30×30象素。
将用于第2参照数据E2的学习的取样图像的眼睛的中心位置,作为本实施例进行识别的眼睛的位置。
判别不是脸部的取样图像,采用具有30×30象素尺寸的任意图像。
判别是脸部的取样图像,两眼的中心距离是10象素,在仅采用平面上的旋转角度为0度(即脸部为垂直状态)进行学习时,参照第1和第2参照数据E1、E2识别是脸部或眼睛的位置,仅是两眼的中心间距离为10象素未完全旋转的脸部。由于照片图像S0可能包含的脸部尺寸不是一定的,则在识别是否包含脸部或眼睛位置时,如后所述扩大缩小照片图像S0,以便能够识别与取样图像尺寸适合的尺寸的脸部和眼睛的位置。但是,为了正确设定两眼的中心间距离为10象素,必须一边按扩大率为1.1单位分阶段扩大缩小照片图像S0的尺寸一边进行识别,则演算量将很庞大。
照片图像S0可能包含的脸部,如图10(a)所示,在平面上的旋转角度不仅是0度,而且也有如图10(b)、(c)所示旋转的情况。但是,在两眼的中心间距离是10象素,仅使用脸部的旋转角度为0度的取样图像进行学习时,尽管是脸部,对于如图10(b)、(c)所示旋转的脸部,也不可能进行识别。
为此,本实施例中,作为判定是脸部的取样图像,如图8所示,两眼的中心间距离是9、10、11象素,对于各距离采用在平面上±15度范围以3度单位分阶段旋转脸部的取样图像,使得在第1参照数据E1的学习中具有容许限度。这样,在后述的第1识别部5进行识别时,可以扩大率为11/9单位分阶段扩大缩小照片图像S0,与以扩大率为1.1单位分阶段扩大缩小照片图像S0的情况比较,可以减少演算时间。并且,如图10(b)、(c)所示旋转的脸部也可以识别。
另一方面,在第2参照数据E2的学习中,如图9所示,两眼的中心间距离是9.7、10、10.3象素,对于各距离采用在平面上±3度范围以1度单位分阶段旋转脸部的取样图像,与第1参照数据E1比较,学习的容许限度较小。并且,在后述的第2识别部6进行识别时,必须以扩大率为10.3/9.7单位扩大缩小照片图像S0,则与第1识别部5进行的识别比较,演算时需要较长时间。然而,由于第2识别部6进行识别的仅是第1识别部5已经识别的脸部内的图像,则与使用照片图像S0的全体的情况比较,可以减少进行眼睛位置识别的演算量。
以下,参照图11的流程图说明取样图像群的学习手法一例。这里,说明第1参照数据E1的学习。
作为学习对象的取样图像群,由判别是脸部的多个取样图像和判别不是脸部的多个取样图像构成。判别是脸部的取样图像,如上所述,1个取样图像的两眼的中心位置是9、10、11象素,对于各距离采用在平面上±15度范围以3度单位分阶段旋转脸部。在各取样图像,分配加权即重要度。首先,设定全部取样图像加权的初始值都为1(S1)。
然后,对于取样图像的多种类象素群,分别制成识别器(S2)。这里,各个识别器,采用构成1个象素群的各象素的特征量C0的组合,提供识别脸部图像的非脸部图像的标准。本实施例中,将构成1个象素群的各象素的特征量C0的组合的立式坐标图用作识别器。
参照图12说明某识别器的制作。如图12左侧的取样图像所示,构成制作该识别器的象素群的各象素,是在判别是脸部的多个取样图像上的位于右眼中心的象素P1、位于右侧颊部的象素P2,位于额部的象素P3以及位于左侧颊部的象素P4。对于判别是脸部的所有取样图像求出全象素P1-P4的特征量C0的组合,制成该立式坐标图。这里,特征量C0表示梯度矢量K的方向和大小,由于梯度矢量K的方向有0-359的360个,样度矢量K的大小有0-255的256个,所以在原封不动使用其时,组合数为按照1象素360×256的共4象素的数量,也就是为(360×256)4,为了学习和检测,将需要很多的取样数、时间和存储器。因此,本实施例中,将梯度矢量方向的0-3594值化为0-44和315-359(右方向,值:0)、45-134(上方向值:1)、135-224(左方向,值:2)、225-314(下方向、值:3),将梯度矢量的大小3值化(值:0-2)。然后,用下式算出组合值。
组合值=0(梯度矢量的大小=0时)
组合值=(梯度矢量的方向+1)×梯度矢量的大小(梯度矢量的大小>0时)
这样,组合数约为94,可以减少特征量C0的数据数。
同样,对于判别不是脸部的多个取样图像也制成立式坐标图。判别不是脸部的取样图像,采用在判别是脸部的取样图像上的与上述象素P1-P4的位置对应的象素。取得该2个立式坐标图所示频度值之比的对数值,用立式坐标图表示,在图12的最右侧是用作识别器的立式坐标图。以下称该识别器的立式坐标图所示各纵轴之值为识别点。若利用该识别器,表示对应于正识别点的特征量C0分布的图像是脸部的可能性较高,识别点的绝对值越大可能性越高。反之,表示对应于负识别点的特征量C0分布的图像不是脸部的可能性较高,同样,识别点的绝对值越大其可能性越高。在步骤S2,构成用于识别的多种类象素群的各象素的特征量C0的组合,制成上述立式坐标图形式的多个识别器。
在步骤S2制成的多个识别器中,选择用于识别图像是否是脸部的最有效的识别器。最有效识别器的选择,应考虑各取样图像的加权。本例中,比较各识别器的加权正答率,选择表示最高加权正答率的识别器(S3)。也就是,在最初的步骤S3,各取样图像的加权都是1,简单用该识别器正确识别图像是否是脸部的取样图像数最多的,即选为最有效的识别器。另外,在后述的步骤S5,各取样图像的加权更新后的第2次步骤S3,加权为1的取样图像、加权大于1的取样图像、加权小于1的取样图像混合,加权大于1的取样图像,在正答率评价中,与加权为1的取样图像相比,多半统计加权较大的。这样,在第2次以后的步骤S3,与加权小的取样图像相比,正确识别加权大的取样图像,设其为重点。
那时选择的识别器组合的正答率,也就是,那时组合使用选择的识别器并识别各取样图像是否是脸部图像的结果,与实际是否是脸部图像的答案的一致率,确认是否超过了规定阈值(S4)。这里,用于组合的正答率评价的可以是现在加权的取样图像群,也可以是加权相等的取样图像群。当超过规定阈值时,使用那时选择的识别器,由于能以很高的概率识别图像是否是脸部,则学习结束。当是规定阈值以下时,选择与那时选择的识别器组合使用的追加识别器,进入步骤S6。
在步骤S6,由于不再选择在步骤S3选择的识别器,则该识别器除外。
在步骤S3选择的识别器不能正确识别是否是脸部的取样图像的加权较大,而能够正确识别图像是否是脸部的取样图像的加权较小(S5)。加权大小的理由是因为,在如下的识别器选择中,应非常重视已选择的识别器不能正确识别的图像,选择能够正确识别这些图像是否是脸部的识别器,提高识别器组合的效果。
然后,返回到步骤S3,以如上所述的加权正答率为基准,选择有效的识别器。
重复以上步骤S3到S6,作为适合识别是否包含脸部的识别器,选择对应于构成特定象素群的各象素的特征量C0的组合的识别器,当在步骤S4确认的正答率超过阈值时,确定用于是否包含脸部的识别的识别器种类和识别条件(S7),由此,结束第1参照数据E1的学习。
与上述同样,通过求得识别器的种类和识别条件,完成第2参照数据E2的学习。
采用上述学习手法时,识别器若是提供了使用构成特定象素群的各象素的特征量C0的组合来识别脸部图像和非脸部图像的基准的,不限于上述的直方图形式,任何形式都可以,例如可以是2值数据、阈值或函数等。即使是相同的直方图形式,也可以采用表示图12中央所示2个直方图的差分值分布的直方图等。
学习方法也不限定于上述手法,也可以采用神经元网络等其他机器学习手法。
第1识别部5,对于构成多种类象素群的各象素特征量C0的所有组合,参照第1参照数据E1学习的识别条件,求出构成各象素群的各象素特征量C0的组合的识别点,综合全部识别点,识别照片图像S0是否包含脸部。这时,特征量C0的梯度矢量K的方向4值化,大小3值化。本实施例中,将所有识别点相加,根据相加值的正负进行识别。例如,识别点的总和是正值时,判断照片图像S0包含脸部;是负值时,判断不包含脸部。将第1识别部5进行的照片图像S0是否包含脸部的识别称为第1识别。
这时,照片图像S0的尺寸与30×30象素的取样图像不同,具有各种尺寸。并且,包含脸部时,在平面上脸部的旋转角度也不限于0度。因此,第1识别部5,如图13所示,分阶段扩大缩小照片图像S0,达到纵或横尺寸为30象素,同时在平面上分阶段旋转360度(图13表示缩小的状态),在各阶段扩大缩小的照片图像S0上设定30×30象素尺寸的掩罩M,在扩大缩小的照片图像S0上按每1象素移动掩罩M,进行掩罩内的图像是否是脸部图像的识别,识别照片图像S0是否包含脸部。
作为在第1参照数据E1生成时学习的取样图像,由于使用两眼中心位置的象素数为9、10、11象素的图像,则照片图像S0扩大缩小时的扩大率可以设定为11/9。并且,作为在第1和第2参照数据E1、E2生成时学习的取样图像,由于使用脸部在平面上±15度范围旋转如图像,则照片图像S0可以30度单位360度旋转。
特征量算出部2,在照片图像S0扩大缩小和旋转变形的各阶段算出特征量C0。
对扩大缩小和旋转的全阶段的照片图像S0进行照片图像S0是否包含脸部的识别,即使一次识别到包含脸部时,也识别为照片图像S0包含脸部,从识别到包含脸部的阶段的尺寸和旋转角度的照片图像S0,将对应于识别的掩罩M的位置的30×30象素区域作为脸部图像提取出来。
第2识别部6,在第1识别部5提取的脸部图像上,对于构成多种类象素群的各象素的特征量C0的所有组合,参照第2参照数据E2学习的识别条件,求得构成各象素群的各象素的特征量C0组合的识别点,综合所有识别点,识别脸部包含的眼睛的位置。这时,特征量C0的梯度矢量K的方向4值化,大小3值化。
这里,第2识别部6,分阶段扩大缩小第1识别部5提取的脸部图像的尺寸,同时在平面上分阶段旋转360度,在各阶段扩大缩小的脸部图像上设定30×30象素尺寸掩罩M,在扩大缩小的脸部上按每1象素移动掩罩M,进行掩罩内图像的眼睛位置的识别。
作为在第2参照数据E2生成时学习的取样图像,由于使用两眼中心位置的象素数为9.07、10、10.3象素的图像,则脸部图像扩大缩小时的扩大率可以设定为10.3/9.07。并且,作为第2参照数据E2生成时学习的取样图像,由于使用脸部在平面上±3度的范围旋转的图像,则脸部图像可以6度单位360度旋转。
特征量算出部2,在脸部图像扩大缩小和旋转变形的各阶段,算出特征量C0。
本实施例中,在提取的脸部图像变形的全阶段相加所有的识别点,在相加值最大的变形阶段的30×30象素掩罩M内的脸部图像,设定以左上角为原点的座标,求得与取样图像的眼睛的位置座标(x1,y1)、(x2,y2)对应的位置,识别与变形前的照片图像S0的该位置对应的位置为眼睛的位置。
第1输出部7,在第1识别部5识别照片图像S0包含脸部时,根据第2识别部6识别的两眼的位置Pa、Pb求得两眼间的距离D,将两眼的位置Pa、Pb和两眼间的距离D作为信息Q输出到瞳孔中心位置检测部50。
图14是表示本实施例的眼睛检测部1动作的流程图。对于照片图像S0,首先,特征量算出部2在照片图像S0的扩大缩小和旋转的各阶段,将照片图像S0的梯度矢量K的方向和大小作为特征量C0算出(S12)。然后,第1识别部5从第2存储部4读出第1参照数据E1(S13),进行照片图像S0是否包含脸部的第1识别(S14)。
第1识别部5,当判别照片图像S0包含脸部时(S14:Yes),从照片图像S0提取出脸部(S15)。这里,不限于1个脸部,也可以提取出多个脸部。然后,特征量算出部2在脸部图像的扩大缩小和旋转的各阶段,将脸部图像的梯度矢量K的方向和大小作为特征量C0算出(S16)。接着,第2识别部6从第2存储部4读出第2参照数据E2(S17),进行识别脸部包含的眼睛位置的第2识别(S18)。
然后,第1输出部7将从照片图像S0识别的眼睛的位置Pa、Pb以及根据该眼睛位置求出的两眼的中心点间距离D作为信息Q,输出到瞳孔中心位置检测部S0(S19)。
另外,在步骤S14,当判别照片图像S0不包含脸部时(S14:NO),眼睛检测部1结束对照片图像S0的处理。
以下,说明瞳孔中心位置检测部50。
图2是瞳孔中心位置检测部50的构成方框图。如图所示,瞳孔中心位置检测部50具有:根据来自眼睛检测部1的信息Q,修整照片图像S0(这时是脸部照片图像,以下简称为照片图像),得到包含左眼和右眼的眼睛近旁修整图像S1a、S1b(以下,当不必区别说明时,指示两方统称S1)的第2修整部10;对眼睛近旁修整图像S1进行灰色变换,得到眼睛近旁修整图像S1的灰色标度图像S2(S2a、S2b)的灰色变换部12;对灰色标度图像S2进行前处理,得到经过前处理的图像S3(S3a、S3b)的前处理部14;具有算出2值化对经过前处理的图像S3进行2值化用的阈值T的2值化阈值算出部18,使用由该2值化阈值算出部18得到的阈值T,对经过前处理的图像S3进行2值化处理后得到2值图像S4(S4a、S4b)的2值化部20;在园环的一半空间对2值图像S4的各象素的座标进行投票,得到投票的各投票位置的投票值,算出具有相同园心座标的投票位置的统一投票值W(Wa、Wb)的投票部35;将由投票部35得到的各统一投票值中最大的统一投票值对应的园心座标作为中心位置候补G(Ga、Gb),并且在由后述的核对部40指示寻找下一个中心位置候补时,求得下一个中心位置候补的中心位置候补取得部35;判别由中心位置候补取得部35取得的中心位置候补是否满足核对基准,当满足核对基准时,将该中心位置候补作为瞳孔中心位置并输出到后述的微调整部45,当不满足核对基准时,将在中心位置候补取得部35重新取得中心位置候补,一直到由中心位置候补取得部35取得的中心位置候补满足核对基准,重复在中心位置候补取得部35进行中心位置候补的重新取得的核对部40;对从核对部40输出的瞳孔中心位置G(Ga、Gb)进行微调整,得到最终中心位置G’(G’a、G’b),根据该最终中心位置求出2个瞳孔间的中心位置间的距离D1,并根据信息Q包含的两眼的中心位置Pa、Pb求出两眼间的中心位置Pm(两眼中心位置间的中心点)的微调整部45。
第2修整部10,根据从眼睛检测部1输出和信息Q,提取出分别包含左眼和右眼的规定范围并得到眼睛近旁修整图像S1a和S1b。这里,进行修整时的规定范围是分别将眼睛近旁作为边框的范围,例如图16所示的斜线范围,可以是以眼睛检测部1识别的眼睛位置(眼睛的中心点)为中心的、图示X方向和Y方向的长度分别为D和0.5D的长方形范围。图示斜线范围是图中左眼的修整范围,右眼也是一样的。
灰色变换部12,对于由第2修整部10得到的眼睛近旁修整图像S1,根据下式(37)进行灰色变换处理,得到灰色的标度图像S2。
Y=0.299×R+0.587×G+0.114×B                 (37)
Y:辉度值
R,G,B:R、G、B值
前处理部14,对灰色标度图像S2进行前处理,前处理是进行平滑化处理和填坑处理。平滑化处理用高斯滤波器来进行,填坑处理可以认为是扦补处理。
如图3所示,在照片图像的瞳孔部分,由于中心以上有部分明亮的倾向,通过进行填坑处理并扦补该部分的数据,则可提高瞳孔中心位置的检测精度。
2值化部20具有2值化阈值算出部18,利用由该2值化阈值算出部18算出的阈值T,对由前处理部14得到的经过前处理的图像S32值化,得到2值图像S4。2值化阈值算出部18,对于具体经过前处理的图像S3,制成图17所示辉度直方图,求出相当经过前处理的图像S3的全象素数几分之一(图示为1/5的20%)的出现频度的对应辉度值,作为2值化用阈值T。2值化部20,用该阈值T对经过前处理的图像S32值化,得到2值图像S4。
投票部30首先在园环的一半空间(园中心点X座标,园中心点Y座标,半径r)对2值化图像S4的各象素(象素值为1的象素)的座标投票,算出各投票位置的投票值。通常,用有1个投票位置的象素投票时,1次投票即在投票值上加1,求出各投票位置的投票值,这里,在有1个投票位置的象素投票时,投票值不加1,参照投票的象素的辉度值,辉度值越小时,附加大的加权,求出各投票位置的投票值。图18表示在图1所示实施例的瞳孔中心位置检测装置的投票部30使用的加权系数表。图中的T是由2值化的阈值算出部18算出的2值化用阈值T。
投票部30,求出各投票位置的投票值之后,在这些投票位置中,园环中心点座标值,即园环一半空间(X,Y,r)的(X,Y)座标值加上相同投票位置相互间的投票值,得到对应于各(X,Y)座标值的统一投票值W,与相对应的(X,Y)座标值对应输出到中心位置候补取得部35。
中心位置候补取得部35首先根据来自投票部30的各统一投票值,取得对应于最大统一投票值(X,Y)座标值,作为瞳孔中心位置候补G,输出到核对部40。这里,由中心位置候补取得部35取得的中心位置候补G是左瞳孔中心位置Ga和右瞳孔中心位置Gb的2个,核对部40根据从眼睛检测部1输出的两眼间距离D,进行2个中心位置Ga、Gb的核对。具体地说,核对部40根据以下2个核对基准进行核对。
1.左瞳孔的中心位置与右瞳孔的中心位置的Y座标值之差是(D/50)以下。
2.左瞳孔的中心位置与右瞳孔的中心位置的X座标值之并在(0.8×D-1.2×D)的范围内。
核对部40判别来自中心位置候补取得部35的2个瞳孔的中心位置候补Ga、Gb是否满足上述2个核对基准,当满足2个基准时(以下称满足核对基准),将瞳孔中心位置候补Ga、Gb作为瞳孔的中心位置输出到微调整部45。当不满足2个基准或2个基准中之一个时(以下称不满足核对基准),指示中心位置候补取得部35取得下一个中心位置候补,并且,对于由中心位置候补取得部35取得的下一个中心位置候补,重复进行上述核对、满足核对基准时的中心位置输出、再取得不满足核对基准时的中心位置候补的指示等处理,直到满足核对基准。
另外,中心位置候补取得部35从核对部40得到取得下一个中心位置候补的指示时,首先,固定一个(这里是左瞳孔)的中心位置,再根据另一个(这里是右瞳孔)的各统一投票值Wb,取得符合以下3个条件的投票位置(X,Y)座标值,作为下一个中心位置候补。
1.离开由最后输出到核对部40的中心位置候补的(X,Y)座标值所示位置D/30以上(D:两眼中心点间的距离)。
2.相对应的统一投票值,在对应于满足条件1的(X,Y)座标值的统一投票值中,仅次于与最后输出到核对部40的中心位置候补的(X,Y)座标值对应的统一投票值。
3.相对应的统一投票值是对应于第1次输出到核对部40的中心位置候补的(X,Y)座标值的统一投票值(最大的统一投票值)的百分之10以上。
中心位置候补取得部35,首先固定左瞳孔的中心位置,根据对右瞳孔求出的统一投票值Wb,寻求满足上述3个条件的右瞳孔的中心位置候补,当未发现满足上述3个条件的候补时,固定右瞳孔的中心位置,根据对左瞳孔求出的统一投票值Wa,寻求满足上述3个条件的左瞳孔的中心位置。
微调整部45,对从核对部40输出的瞳孔中心位置G(满足核对基准的中心位置候补)进行微调整。首先,说明左瞳孔中心位置的微调整。微调整部54,对于由2值化部20得到的左眼的眼睛近旁修整图像S1a的2值图像S4a,按尺寸9×9,用所有1的掩罩重复3次掩罩演算,根据具有由该掩罩演算结果得到的最大结果值的象素位置(Gm),对从核对部40输出的左瞳孔的中心位置进行微调整。具体地说,例如,可以将取得位置Gm与中心位置Ga之平均的平均位置作为瞳孔的最终中心位置G’a,也可以将在中心位置Ga加权进行平均演算得到的平均位置作为瞳孔的最终中心位置G’a。这里,在中心位置Ga加权进行平均演算。
右瞳孔中心位置的微调整,利用右眼的眼睛近旁修整图像S1b的2值图像S4b,与上述同样进行。
微调整部45,对于核对部40输出的瞳孔中心位置Ga、Gb进行微调整,得到最终中心位置G’a、G’b,利用最终中心位置G’求出2个瞳孔间的距离D1,同时根据信息Q包含的两眼中心位置Pa、Pb求出两眼间的中心位置Pm,将距离D1和中心位置Pm输出到修整区域取得部60a。
图19是表示图1所示实施例的图像处理系统A的眼睛检测部1和瞳孔中心位置检测部50的处理流程图。如图所示,首先进行照片图像S0在眼睛检测部1是否包含脸部的判别(S110)。当判别结果是照片图像S0不包含脸部时(S115:NO),结束对照片图像S0的处理,当判别结果是照片图像S0包含脸部时(S115:Yes),在眼睛检测部1检测照片图像S0的眼睛位置,两眼的位置和两眼中心点间的距离D作为信息Q,输出到第2修整部10(S120)。在第2修整部10修整照片图像S0,得到仅包含左眼的眼睛近旁修整图像S1a和仅包含右眼的眼睛近旁修整图像S1b(S125)。眼睛近旁修整图像S1,由灰色变换部12进行灰色变换形成灰色标度图像S2(S130)。灰色标度图像S2,由前处理部14进行平滑化处理和填坑处理,再由2值化部20进行2值化处理,形成2值图像S4(S135,S140)。在投票部30,2值图像S4的各象素座标在园环的一半空间投票,其结果得到对应于表示各园中心点(X,Y)座标值的统一投票值W(S145)。中心位置候补取得部35首先将对应于最大统一投票值的(X,Y)座标值作为瞳孔中心位置候补G,输出到核对部40(S150)。核对部40根据上述核对基准,对于来自中心位置候补取得部35的2个中心位置候补Ga、Gb进行核对(S115),若2个中心位置候补Ga、Gb满足核对基准(S160:Yes),以2个中心位置候补Ga、Gb为中心位置,输出到微调整部45,若2个中心位置候补Ga、Gb不满足核对基准(S160:NO),指示中心位置候补取得部35寻求下一个中心位置候补(S150)。由核对部40重复进行从步骤S150到步骤S160的处理,直到判别来自中心位置候补取得部35的中心位置候补G满足核对基准为止。
微调整部45对于从核对部40输出的中心位置G进行微调整,根据最终中心位置G’求出2个瞳孔间的距离D1,并根据信息Q包含的两眼中心位置Pa、Pb求出两眼间中心位置Pm,输出到修整区域取得部60a(S165)。
图20是修整区域取得部60a的构成方框图。如图所示,修整区域取得部60a具有脸部边框取得部62a和修整区域设定部64a。脸部边框取得部62a,将利用脸部照片图像S0的两瞳孔间距离D1、两眼间的中心位置Pm以及系数U1a、U1b、U1c按照式(38)进行演算得到的值L1a、L1b、L1c,分别作为以脸部照片图像S0的两眼间中心位置Pm为横方向中心的脸部边框的横幅、从中心位置Pm到脸部边框上边的距离、从中心位置Pm到脸部边框下边的距离,取得脸部边框。系数U1a、U1b、U1c存储在第1存储部68a,本实施例中,分别为3.250、1.905、2.170。
修整区域设定部64a根据由脸部边框取得部62a取得的脸部边框位置和大小,设定与输出部80输出规格一致的脸部照片图像S0的修整区域。
L1a=D1×U1a
L1b=D1×U1b
L1c=D1×U1c                              (38)
U1a=3.250
U1b=1.905
U1c=2.170
图21是图1所示本发明第1实施例的图像处理系统A的处理流程图。如图所示,在本实施例的图像处理系统A中,对于构成脸部照片图像的图像S0,首先由眼睛检测部1检测两眼的位置(两眼的中心位置),得到包含两眼位置和两眼中心点间距离D的信息Q(S210)。瞳孔中心位置检测部S0根据来自眼睛检测部1的信息Q检测两眼瞳孔的中心位置G’a、G’b,并求出2个瞳孔间的距离D1、两眼间的中心位置Pm(S215)。修整区域取得部60a,首先由脸部边框取得部62a利用两眼间的中心位置Pm、瞳孔间距离D1、以及第1存储部68a存储的系数U1a、U1b、U1c,按照上述式(38)算出脸部照片图像S0的脸部边框(S225)。然后,修整区域取得部60a的修整区域设定部64a,根据由脸部边框取得部62a取得的脸部边框的位置和大小,设定修整区域(S235)。第1修整部70根据由修整区域取得部60a设定的修整区域,修整脸部照片图像S0,得到修整图像S5(S240)。输出部80复制修整图像S5,得到证明照片(S245)。
这样,若采用本实施例的图像处理系统A。从脸部照片图像S0检测两眼的位置、瞳孔的中心位置,根据两眼间的中心位置Pm和瞳孔间的距离D1算出脸部边框,根据算出的脸部边框设定修整区域,由于知道了两眼间中心位置和瞳孔间的距离即可设定修整区域,处理是简单的。
在本实施例的图像处理系统A中,可以自动检测眼睛乃至瞳孔的位置,对操作者指定眼睛或瞳孔的中心位置,根据指定的位置以及由指定的位置算出的两眼间的距离,即可取得脸部边框。
图22是本发明第2实施例的图像处理系统B的构成方框图。除修整区域取得部60b和第3存储部68b之外,图像处理系统B的其他构成,都与图1所示图像处理系统A的相对应的构成一样,这里,仅对修整区域取得部60b和第3存储部68b予以说明,并对其他构成附与图1所示图像处理系统A相对应的构成相同的符号。
第3存储部68b与图1所示图像处理系统A的第1存储部68a一样,存储第1修整部70必需的数据,并存储修整区域取得部60b必需的后述系数U2a、U2b、U2c。本实施例中,第3存储部68b存储的系数U2a、U2b、U2c作为例子,为3.250、1.525、0.187。
图23是修整区域取得部60b的构成方框图。如图23所示,修整区域取得部60b具有:头顶部检测部61b、脸部边框取得部62b、修整区域设定部64b。
头顶部检测部61b对瞳孔以上部分进行头顶部的检测,检测构成脸部照片图像的图像S0的头顶部位置,并算出检测的头顶部位置到由瞳孔中心位置检测部50算出的两眼间中心位置Pm的垂直距离H。头顶部位置的检测,可以采用例如专利文献2记载的方法。
脸部边框取得部62b,将利用由瞳孔中心位置检测部50得到的脸部照片图像S0的两瞳孔间距离D1、两眼间中心位置Pm、以及由头顶部检测部61b检测的垂直距离H和第3存储部68b存储的系数U2a、U2b、U2c按照式(39)进行演算得到的值L2a、L2c,分别作为以脸部照片图像S0的两眼间中心位置Pm为横方向中心的脸部边框的横幅、从中心位置Pm到脸部边框下边的距离,并且以垂直距离H作为从中心位置Pm到脸部边框上边的距离,取得脸部边框。
L2a=D1×U2a
L2c=D1×U2b+H×U2c                          (39)
U2a=3.250
U2b=1.525
U2c=0.187
修整区域设定部64b根据由脸部边框取得部62b取得的脸部边框位置和大小,设定与输出部80的输出规格一致的脸部照片图像S0的修整区域。
图24是图22所示图像处理系统B的处理流程图。如图所示,在本实施例的图像处理系统B,对于构成脸部照片图像的图像S0,首先由眼睛检测部1检测两眼的位置,得到包含两眼位置和两眼中心点距离D的信息Q(S310)。瞳孔中心位置检测部50根据来自眼睛检测部1的信息Q检测两眼瞳孔的中心位置G’a、G’b,并求出2个瞳孔间的距离D1、两眼间的中心距离Pm(S315)。修整区域取得部60b,首先由头顶部检测部61b检测脸部照片图像S0的头顶部位置,同时算出从检测的头顶部位置到两眼间中心位置Pm的垂直距离H(S320)。然后,脸部边框取得部62b,利用两眼间的中心位置Pm、瞳孔间距离D1、垂直距离H、以及第3存储部68b存储的系数U2a、U2b、U2c,按照上述式(39)算出脸部照片图像S0的脸部边框(S325)。修整区域取得部60b的修整区域设定部64b,根据由脸部边框取得部60b得到的脸部边框的位置和大小,设定修整区域(S335),第1修整部70按照由修整区域取得部60b设定的修整区域,修整脸部照片图像S0,得到修整图像S5(S340)。输出部80复制修整图像S5,得到证明照片(S345)。
这样,若采用本实施例的图像处理系统B,首先,从脸部照片图像S0检测两眼的中心位置和瞳孔的中心位置,得到两眼间的中心位置和瞳孔间的距离,同时从瞳孔以上部分检测顶头部的位置,得到从头顶部到眼睛的垂直距离。然后,根据两眼间的中心位置、瞳孔间的距离、头顶部的位置、以及从头顶部到瞳孔的垂直距离算出脸部边框,根据算出的脸部边框设定修整区域,与图1所示实施例的图像处理系统A一样,可用简单的处理设定修整区域,同时,由于根据瞳孔间的距离、头顶部位置和头顶部到眼睛的垂直距离算出脸部边框,可以更精确地决定脸部边框,进而可以更精确地设定修整区域。
由于从眼睛(这里是瞳孔)位置以上部分检测头顶部位置,则与使用脸部照片图像全体的方法比较,能够更迅速、正确地检测头顶部位置。
本实施例的图像处理系统B中,脸部边框取得部62b,将按照上述式(39),利用两瞳孔间的距离D1、由头顶部检测部61b检测的垂直距离H、以及系数U2a、U2b、U2c进行演算得到的值L2a、L2c,分别作为以脸部照片图像S0的两眼间中心位置Pm为横方向中心的脸部边框的横幅、从中心位置Pm到脸部边框下边的距离,并将垂直距离H作为从中心位置Pm到脸部边框上边的距离,取得脸部边框,但也可以仅根据垂直距离H算出从中心位置Pm到脸部边框下边的距离。具体地说,按照下述式(40),利用两瞳孔间的距离D1和系数U2a,算出以两瞳孔间的中心位置Pm为横方向中心的脸部边框的横部(L2a),利用垂直距离H和系数U2c,算出从中心位置Pm到脸部边框下边的距离(L2c)。
L2a=D1×U2a
L2c=H×U2c                                    (40)
U2a=3.250
U2c=0.900
本实施例的图像处理系统B中,可以自动检测眼睛乃至瞳孔的位置、头顶部的位置,向操作者指定眼睛或瞳孔的中心位置,并从指定位置以上的部分进行头顶部的检测。
上述实施例的图像处理系统A和图像处理系统B,设定脸部边框时的各系数U1a、U1b……U2c等,都采用能够适用于护照等严格输出条件的值,对于公司职员证、履历书等输出条件不那么严格的用途的证明照片以及是脸部照片就可以的情况,各系数可以在上述各值的(1±0.05)倍的范围内,并不限定于上述值。
图25是本发明第3实施例的图像处理系统C的构成方框图。除修整区域设定部60c和第4存储部68c以外,图像处理系统C的其他构成都与上述图像处理系统A或图像处理系统B的相对应构成一样,因此,这里仅对修整区域设定部60c和第4存储部68c予以说明,同时对于其他构成,附与与上述图像处理系统A或图像处理系统B的相对应构成同样的符号。
第4存储部68c与上述图像处理系统A或图像处理系统B的第1存储部68a、第3存储部68b一样,存储第1修整部70必需的数据,同时也存储修整区域设定部60c必需的后述系数U1a、U1b、U1c。本实施例中,第4存储部68c存储的系数U1a、U1b、U1c作为例子,分别为5.04、3.01、3.47。
修整区域设定部60c,将利用由瞳孔中心位置检测部50得到的脸部照片图像S0的两瞳孔间的距离D1、两眼间中心位置Pm、以及第4存储部68c存储的系数U1a、U1b、U1c按照式(41)进行演算得到的值L1a、L1b、L1c,分别作为以脸部照片图像S0的两眼间中心位置Pm为横方向中心的修整区域的横幅、从中心位置Pm到修整区域上边的距离、从中心位置Pm到修整区域下边的距离,设定修整区域。
L1a=D1×U1a
L1b=D1×U1b
L1c=D1×U1c                        (41)
U1a=5.04
U1b=3.01
U1c=3.47
图26是图25所示图像处理系统C的处理流程图。如图所示,在本实施例的图像处理系统C,对于构成脸部照片图像的图像S0,首先由眼睛检测部1检测两眼的位置,得到包含两眼的位置和两眼中心点间距离D的信息Q(S410)。瞳孔中心位置检测部S0根据来自眼睛检测部1的信息Q,检测两眼瞳孔的中心位置G’a、G’b,求出2个瞳孔之间的距离D1,并求出两眼间的中心位置Pm(S41 5)。修整区域设定部60c利用两眼间的中心位置Pm、瞳孔间距离D1、以及第4存储部68c存储的U1a、U1b、U1c,按照上述式(41)设定修整区域(S430)。第1修整部70根据由修整区域设定中60c设定的修整区域,修整脸部照片图像S0,得到修整图像S5(S440)。输出部80复制修整图像S5,得到证明照片(S445)。
这样,本实施例的图像处理系统C,与图1所示图像处理系统A一样,只要知道了与眼睛(这里是瞳孔)的距离,即可设定修整区域,并且不必算出脸部边框,即可直接设定修整区域,能够实现处理的高速化。
当然,也与图像处理系统A、图像处理系统B一样,可以向操作者指定眼睛的位置。
图27是本发明第4实施例的图像处理系统D的构成方框图。除修整区域取得部60d和第5存储部68d之外,图像处理系统D和其他构成都与上述各实施例的图像处理系统相对应的构成一样,因此,这里仅对修整区域取得部60d和第5存储部68d予以说明,对于其他构成,附与与上述各实施例的图像处理系统的相对应构成同样的符号。
第5存储部68d存储第1修整部70必需的数据(输出部80要求的规格等),并且存储修整区域取得部60d必需的后述系数U2a、U2b1、U2c1、U2b2、U2c2。本实施例中,第5存储部68d存储的系数U2a、U2b1、U2c1、U2b2、U2c2作为例子,分别为5.04、2.674、0.4074、0.4926、1.259。
图28是修整区域取得部60d的构成方框图。如图28所示,修整区域取得部60d具有头顶部检测部61d和修整区域设定部64d。
头顶部检测部61d对瞳孔以上部分进行头顶部检测,检测构成脸部照片图像的图像S0的头顶部位置,并算出从检测的头顶部位置到由瞳孔中心位置检测部50算出的两眼间中心位置Pm的垂直距离H。
修整区域设定部64d,将利用脸部照片图像S0的两瞳孔间距离D1和从头顶部检测部61d检测的瞳孔到头顶部的垂直距离H以及系数U2a、U2b1、U2c1、U2b2、U2c2按照式(42)进行演算得到的值L2a、L2b、L2c,分别作为以脸部照片图像S0的两眼间中心位置Pm为横方向中心的修整区域的横幅、从中心位置Pm到修整区域上边的距离、从中心位置Pm到修整区域下边的距离,设定修整区域。
L2a=D1×U2a
L2b=D1×U2b1+H×U2c1                        (42)
L2c=D1×U2b2+H×U2c2
U2a=5.04
U2b1=2.674
U2c1=0.4074
U2b2=0.4926
U2c2=1.259
图29是图27所示图像处理系统D的处理流程图。如图所示,在本实施例的图像处理系统D中,对于构成脸部照片图像的图像S0,首先由眼睛检测部1检测两眼的位置,得到包含两眼位置和两眼中心点间距离D的信息Q(S510)。瞳孔中心位置检测部50根据来自眼睛检测部1的信息Q,检测两眼瞳孔的中心位置G’a、G’b,求出2个瞳孔间的距离D1,并求出两眼间的中心位置Pm(S515)。修整区域取得部60d利用两眼间的中心位置Pm、瞳孔间的距离D1、以及第5存储部68d存储的系数U2a、U2b1、U2c1、U2b2、U2c2,按照上式(42)设定修整区域(S530)。第1修整部70根据由修整区域取得部60d取得的修整区域,修整脸部照片图像S0,得到修整图像S5(S540)。输出部80复制修整图像S5,得到证明照片(S545)。
本实施例的图像处理系统D中,修整区域取得部60d,将根据上述式(42),利用两瞳孔间的距离D1、由头顶部检测部61d检测的垂直距离H、以及系数U2a、U2b1、U2c1、U2b2、U2c2进行演算得到的值L2a、L2b、L2c,分别作为以脸部照片图像S0的两眼间中心位置Pm为横方向中心的修整区域的横幅、从中心位置Pm到修整区域上边的距离、从中心位置Pm到修整区域下边的距离,设定修整区域,然而,也可以仅根据垂直距离H算出中心位置Pm到修整区域上边和从中心位置Pm到修整区域下边的距离。具体地说,按照下述式(43),可以分别利用两瞳孔间距离D1和系数U2a,算出以两眼间的中心位置Pm为横方向中心的修整区域的横幅(L2a);利用垂直距离H和系数U2b,算出从中心位置Pm到修整区域上边的距离(L2b);利用垂直距离H和系数U2c,算出从中心位置Pm到修整区域下边的距离(L2c)。
L2a=D1×U2a
L2b=H×U2b                         (43)
L2c=H×U2c
U2a=5.04
U2b=1.495
U2c=1.89
以上,为了容易理解本发明的要旨,将对输入的脸部照片图像进行修整处理得到证明照片的图像处理系统作为实施例,已经进行了说明,然而,本发明不限于上述图像处理系统的实施例,进行从对脸部照片图像进行摄像到目的是取得照片复印和修整的图像的处理的装置,例如,具有上述各实施例的图像处理系统功能的照片盒装置是不言而喻的,具有上述各实施例的图像处理系统的修整功能的数字摄像机等也是适用的。
「追加资料①的内容」。
在脸部边框的取得和修整区域的设定时使用的各系数,可以根据被拍照人物的生年月日、眼睛的颜色、国藉等变更。
「追加资料②的内容」。
在上述各图像处理系统,仅以脸部照片图像S0中1个脸部为前提,然而,本发明也适用于1个图像中存在多个脸部的情况。例如,当1个图像中存在多个脸部时,对于各脸部,进行上述图像处理系统A或B的取得脸部边框的处理,将各脸部边框中最上面脸部边框的上边位置和最下面脸部边框的下边位置作为修整区域的上下端基准,即可设定对多个脸部汇总进行修整的修整区域。同样,将各脸部边框中最左面脸部边框的左边位置和最右面脸部边框的右面位置作为修整区域的左右端基准,即可设定对多个脸部汇总进行修整的修整区域。

Claims (29)

1.一种图像处理方法,其特征是:
将利用在脸部照片图像的两眼间距离D和系数U1a、U1b、U1c按照式(1)进行演算得到的值L1a、L1b、L1c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框上边的距离、从上述中心位置Gm到上述脸部边框下边的距离,取得上述脸部边框,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域,
上述系数U1a、U1b、U1c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut1a、Ut1b、Ut1c按式(2)进行演算得到的各值Lt1a、Lt1b、Lt1c,分别与上述取样脸部照片图像的脸部横幅、从上述两眼间中心位置到上述脸部上端的距离、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的总和最小而得到的系数,
L1a=D×U1a
L1b=D×U1b                             (1)
L1c=D×U1c
Lt1a=Ds×Ut1a
Lt1b=Ds×Ut1b                          (2)
Lt1c=Ds×Ut1c。
2.一种图像处理方法,其特征是:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U2a、U2c按照式(3)进行演算得到的值L2a、L2c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,并且将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域,
上述系数U2a、U2c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut2a、Ut2c按式(4)进行演算得到的各值Lt2a、Lt2c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L2a=D×U2a
L2c=H×U2c                             (3)
Lt2a=Ds×Ut2a
Lt2b=Hs×Ut2c。                        (4)
3.一种图像处理方法,其特征是:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U3a、U3b、U3c按照式(5)进行演算得到的值L3a、L3c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,并且将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域,
上述系数U3a、U3b、U3c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut3a、Ut3b、Ut3c按照式(6)进行演算得到的各值Lt3a、Lt3c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L3a=D×U3a
L3c=D×U3b+H×U3c                        (5)
Lt3a=Ds×Ut3a
Lt3b=Ds×Ut3b+Hs×Ut3c。                 (6)
4.一种图像处理方法,其特征是:
将利用脸部照片图像的两眼间距离D和系数U4a、U4b、U4c按照式(7)进行演算得到的值L4a、L4b、L4c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域,
其特征是:上述系数U4a、U4b、U4c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的两眼间的距离Ds和规定测试系数Ut4a、Ut4b、Ut4c按照式(8)进行演算得到的各值Lt4a、Lt4b、Lt4c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼间中心位置到上述规定修整区域下边的距离之差的绝对值的处理,最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L4a=D×U4a
L4b=D×U4b                          (7)
L4c=D×U4c
Lt4a=Ds×Ut4a
Lt4b=Ds×Ut4b                       (8)
Lt4c=Ds×Ut4c。
5.一种图像处理方法,其特征是:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U5a、U5b、U5c按照式(9)进行演算得到的值L5a、L5b、L5c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域,
上述系数U5a、U5b、U5c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut5a、Ut5b、Ut5c按照式(10)进行演算得到的值Lt5a、Lt5b、Lt5c,分别与上述取样脸部照片图像上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼中心位置到上述规定修整区域下边的距离之差的绝对值处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L5a=D×U5a
L5b=H×U5b                            (9)
L5c=H×U5c
Lt5a=Ds×Ut5a
Lt5b=Hs×Ut5b                         (10)
Lt5c=Hs×Ut5c。
6.一种图像处理方法,其特征是:
从脸部照片图像的眼睛位置以上的部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U6a、U6b1、U6c1、U6b2、U6c2按照式(11)进行演算得到的值L6a、L6b、L6c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域,
上述系数U6a、U6b1、U6c1、U6b2、U6c2是对于多个上述取样脸部照片图像,进行求出使用取样照片图像的从眼睛到头顶部的垂直距离Hs和两眼间距离Ds和规定测试系数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2按照式(12)进行演算得到的值Lt6a、Lt6b、Lt6c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼中心位置到上述规定修整区域下边的距离之差的绝对值的处理,最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L6a=D×U6a
L6b=D×U6b1+H×U6c1                 (11)
L6c=D×U6b2+H×U6c2
Lt6a=Ds×Ut6a
Lt6b=Ds×Ut6b1+Hs×Ut6c1            (12)
Lt6c=Ds×Ut6b2+Hs×Ut6c2。
7.一种图像处理装置,其特征是:它具有:
将利用在脸部照片图像的两眼间距离D和系数U1a、U1b、U1c按照式(13)进行演算得到的值L1a、L1b、L1c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框上边的距离、从上述中心位置Gm到上述脸部边框下边的距离,取得上述脸部边框的脸部边框取得部件,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的修整区域设定部件,
上述系数U1a、U1b、U1c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut1a、Ut1b、Ut1c按照式(14)进行演算得到的值Lt1a、Lt1b、Lt1c,分别与上述取样脸部照片图像的脸部横幅、从上述两眼间中心位置到上述脸部上端的距离、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L1a=D×U1a
L1b=D×U1b                          (13)
L1c=D×U1c
Lt1a=Ds×Ut1a
Lt1b=Ds×Ut1b                       (14)
Lt1c=Ds×Ut1c。
8.如权利要求7记载的图像处理装置,其特征是:
上述两眼间的距离是上述两眼自各瞳孔间的距离,
上述系数U1a、U1b、U1c的值分别在3.250×(1±0.05)、1.905×(1±0.05)、2.170×(1±0.05)的范围内。
9.一种图像处理装置,其特征是:它具有:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H和头顶部检测部件,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U2a、U2c按照式(15)进行演算得到的值L2a、L2c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,同时将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框的脸部边框取得部件,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的修整区域设定部件,
上述系数U2a、U2c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间距离Ds和规定测试系数Ut2a、Ut2c按照式(16)进行演算得到的各值Lt2a、Lt2c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L2a=D×U2a
L2c=H×U2c                            (15)
Lt2a=Ds×Ut2a
Lt2b=Hs×Ut2c。                       (16)
10.如权利要求9记载的图像处理装置,其特征是:
上述两眼间的距离是上述两眼各自瞳孔间的距离,
上述系数U2a、U2c的值,分别在3.250×(1±0.05)、0.900×(1±0.05)的范围内。
11.一种图像处理装置,其特征是:它具有:
从脸部照片图像的眼睛位置以上部分检测的头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H和头顶部检测部件,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U3a、U3b、U3c按照式(17)进行演算得到的值L3a、L3c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离、同时将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框的脸部边框取得部件,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的修整区域设定部件,
上述系数U3a、U3b、U3c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间距离Ds和规定测试系数Ut3a、Ut3b、Ut3c按照式(18)进行演算得到的各值Lt3a、Lt3c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L3a=D×U3a
L3c=D×U3b+H×U3c                     (17)
Lt3a=Ds×Ut3a
Lt3b=Ds×Ut3b+Hs×Ut3c。              (18)
12.如权利要求11记载的图像处理装置,其特征是:
上述两眼间的距离是上述两眼各自瞳孔间的距离,
上述系数U3a、U3b、U3c的值,分别在3.250×(1±0.05)、1.525×(1±0.05)、0.187×(1±0.05)的范围内。
13.一种图像处理装置,其特征是:它具有:
将利用脸部照片图像的两眼间距离D和系数U4a、U4b、U4c按照式(19)进行演算得到的值L4a、L4b、L4c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的修整区域设定部件,
上述系数U4a、U4b、U4c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut4a、Ut4b、Ut4c按照式(20)进行演算得到的各值Lt4a、Lt4b、Lt4c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼间中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L4a=D×U4a
L4b=D×U4b                           (19)
L4c=D×U4c
Lt4a=Ds×Ut4a
Lt4b=Ds×Ut4b                        (20)
Lt4c=Ds×Ut4c。
14.如权利要求13记载的图像处理装置,其特征是:
上述两眼间的距离是上述两眼各自瞳孔间的距离,
上述系数U4a、U4b、U4c的值,分别在(5.04×范围系数)、(3.01×范围系数)、(3.47×范围系数)的范围内,该范围系数是(1±0.4)。
15.一种图像处理装置,其特征是:它具有:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H的头顶部检测部件,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U5a、U5b、U5c按照式(21)进行演算得到的值L5a、L5b、L5c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的修整区域设定部件,
上述系数U5a、U5b、U5c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间距离Ds和规定测试系数Ut5a、Ut5b、Ut5c按照式(22)进行演算得到的值Lt5a、Lt5b、Lt5c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼中心位置到上述规定修整区域下边的距离之差的绝对值,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L5a=D×U5a
L5b=H×U5b                             (21)
L5c=H×U5c
Lt5a=Ds×Ut5a
Lt5b=Hs×Ut5b                          (22)
Lt5c=Hs×Ut5c。
16.如权利要求15记载的图像处理装置,其特征是:
上述两眼间的距离是上述两眼各自瞳孔间的距离,
上述系数U5a、U5b、U5c的值,分别在(5.04×范围系数)、(1.495×范围系数)、(1.89×范围系数)的范围内,该范围系数是(1±0.4)。
17.一种图像处理装置,其特征是:它具有:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H的头顶部检测部件,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U6a、U6b1、U6c1、U6b2、U6c2按照式(23)进行演算得到的值L6a、L6b、L6c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的修整区域设定部件,
上述系数U6a、U6b1、U6c1、U6b2、U6c2是对于多个上述取样脸部照片图像,进行求出使用取样照片图像的从眼睛到头顶部的垂直距离Hs和两眼间距离Ds和规定测试系数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2按照式(24)进行演算得到的值Lt6a、Lt6b、Lt6c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼间中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L6a=D×U6a
L6b=D×U6b1+H×U6c1                  (23)
L6c=D×U6b2+H×U6c2
Lt6a=Ds×Ut6a
Lt6b=Ds×Ut6b1+Hs×Ut6c1             (24)
Lt6c=Ds×Ut6b2+Hs×Ut6c2。
18.如权利要求17记载的图像处理装置,其特征是:
上述两眼间的距离是上述两眼各自瞳孔间的距离,
上述系数U6a、U6b1、U6c1、U6b2、U6c2的值,分别在(5.04×范围系数)、(2.674×范围系数)、(0.4074×范围系数)、(0.4926×范围系数)、(1.259×范围系数)的范围内,该范围系数是(1±0.4)。
19.如权利要求14、16、18的任一项记载的图像处理装置,其特征是:上述范围系数是(1±0.25)。
20.如权利要求19记载的图像处理装置,其特征是:上述范围系数是(1±0.10)。
21.如权利要求20记载的图像处理装置,其特征是:上述范围系数是(1±0.05)。
22.一种程序,由计算机实行以下处理,其特征是:
将利用脸部照片图像的两眼间距离D和系数U1a、U1b、U1c按照式(25)进行演算得到的值L1a、L1b、L1c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框上边的距离、从上述中心位置Gm到上述脸部边框下边的距离,取得上述脸部边框的处理,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的处理,
上述系数U1a、U1b、U1c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut1a、Ut1b、Ut1c按照式(26)进行演算得到的各值Lt1a、Lt1b、Lt1c,分别与上述取样脸部照片图像的脸部横幅、从上述两眼间中心位置到上述脸部上端的距离、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L1a=D×U1a
L1b=D×U1b                             (25)
L1c=D×U1c
Lt1a=Ds×Ut1a
Lt1b=Ds×Ut1b                          (26)
Lt1c=Ds×Ut1c。
23.一种程序,由计算机实行以下处理,其特征是:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,并算出从上述眼睛到上述头顶部的垂直距离H的处理,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U2a、U2c按照式(27)进行演算得到的值L2a、L2c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,同时将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框的处理,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的处理,
上述系数U2a、U2c是对于多个上述取样脸部照片图像,进行求出使用从取样脸部照片图像的眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut2a、Ut2c按式(28)进行演算得到的各值Lt2a、Lt2c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L2a=D×U2a
L2c=H×U2c                               (27)
Lt2a=Ds×Ut2a
Lt2b=Hs×Ut2c。                          (28)
24.一种程序,由计算机实行以下处理,其特征是:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,同时算出从上述眼睛到上述头顶部的垂直距离H的处理,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U3a、U3b、U3c按照式(29)进行演算得到的值L3a、L3c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的脸部边框的横幅、从上述中心位置Gm到上述脸部边框下边的距离,同时将上述垂直距离H作为从上述中心位置Gm到上述脸部边框上边的距离,取得上述脸部边框的处理,
根据上述脸部边框的位置和大小,设定与规定输出规格一致的上述脸部照片图像的修整区域的处理,
上述系数U3a、U3b、U3c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut3a、Ut3b、Ut3c按照式(29)进行演算得到的各值Lt3a、Lt3c,分别与上述取样脸部照片图像的脸部宽度、从上述两眼间中心位置到上述脸部下端的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L3a=D×U3a
L3c=D×U3b+H×U3c                       (29)
Lt3a=Ds×Ut3a
Lt3b=Ds×Ut3b+Hs×Ut3c。                (30)
25.一种程序,由计算机实行以下处理,其特征是:
将利用脸部照片图像的两眼间距离D和系数U4a、U4b、U4c按照式(31)进行演算得到的值L4a、L4b、L4c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的处理,
上述系数U4a、U4b、U4c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的两眼间距离Ds和规定测试系数Ut4a、Ut4b、Ut4c按照式(32)进行演算得到的各值Lt4a、Lt4b、Lt4c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼间中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数。
L4a=D×U4a
L4b=D×U4b                           (31)
L4c=D×U4c
Lt4a=Ds×Ut4a
Lt4b=Ds×Ut4b                        (32)
Lt4c=Ds×Ut4c。
26.一种程序,由计算机实行以下处理,其特征是:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,同时算出从上述眼睛到上述头顶部的垂直距离H的处理,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U5a、U5b、U5c按照式(33)进行演算得到的值L5a、L5b、L5c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的处理,
上述系数U5a、U5b、U5c是对于多个上述取样脸部照片图像,进行求出使用取样脸部照片图像的从眼睛到头顶部的垂直距离Hs和两眼间距离Ds和规定测试系数Ut5a、Ut5b、Ut5c按照式(34)进行演算得到的值Lt5a、Lt5b、Lt5c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼间中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L5a=D×U5a
L5b=H×U5b                           (33)
L5c=H×U5c
Lt5a=Ds×Ut5a
Lt5b=Hs×Ut5b                        (34)
Lt5c=Hs×Ut5c。
27.一种程序,由计算机实行以下处理,其特征是:
从脸部照片图像的眼睛位置以上部分检测头顶部位置,同时算出从上述眼睛到上述头顶部的垂直距离H的处理,
将利用上述脸部照片图像的两眼间距离D和上述垂直距离H和系数U6a、U6b1、U6c1、U6b2、U6c2按照式(35)进行演算得到的值L6a、L6b、L6c,分别作为以上述脸部照片图像的上述两眼间中心位置Gm为横方向中心的修整区域的横幅、从上述中心位置Gm到上述修整区域上边的距离、从上述中心位置Gm到上述修整区域下边的距离,设定上述修整区域的处理,
上述系数U6a、U6b1、U6c1、U6b2、U6c2是对于多个上述取样脸部照片图像,进行求出使用取样照片图像的从眼睛到头顶部的垂直距离Hs和两眼间的距离Ds和规定测试系数Ut6a、Ut6b1、Ut6c1、Ut6b2、Ut6c2按照式(36)进行演算得到的值Lt6a、Lt6b、Lt6c,分别与以上述取样脸部照片图像的上述两眼间中心位置为横方向中心的规定修整区域的横幅、从上述两眼间中心位置到上述规定修整区域上边的距离、从上述两眼间中心位置到上述规定修整区域下边的距离之差的绝对值的处理,并最佳化上述测试系数,使对各个上述取样脸部照片图像求得的上述差的绝对值的总和最小而得到的系数,
L6a=D×U6a
L6b=D×U6b1+H×U6c1                  (35)
L6c=D×U6b2+H×U6c2
Lt6a=Ds×Ut6a
Lt6b=Ds×Ut6b1+Hs×Ut6c1              (36)
Lt6c=Ds×Ut6b2+Hs×Ut6c2。
28.一种数字摄像机,其特征是:它具有:
摄像部件;
取得由该摄像部件得到的脸部照片图像的修整区域的修整区域取得部件,
按照由该修整区域取得部件取得的上述修整区域,对上述脸部照片图像进行修整处理,得到修整图像的修整实行部件;
上述修整区域取得部件是权利要求7到21任一项记载的图像处理装置。
29.一种照相盒装置,其特征是:它具有:
摄像部件;
取得由该摄像部件得到的脸部照片图像的修整区域的修整区域取得部件,
按照由该修整区域取得部件取得的上述修整区域,对上述脸部照片图像进行修整处理,得到修整图像的修整实行部件;
上述修整区域取得部件是权利要求7到21任一项记载的图像处理装置。
CNA200410089963XA 2003-09-09 2004-09-09 图像处理方法和装置及其程序 Pending CN1599406A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP358507/2003 2003-09-09
JP2003358507 2003-09-09

Publications (1)

Publication Number Publication Date
CN1599406A true CN1599406A (zh) 2005-03-23

Family

ID=34615026

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA200410089963XA Pending CN1599406A (zh) 2003-09-09 2004-09-09 图像处理方法和装置及其程序

Country Status (2)

Country Link
US (1) US20050117802A1 (zh)
CN (1) CN1599406A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102957860A (zh) * 2011-08-11 2013-03-06 三星电子株式会社 图像处理设备和处理图像的方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4560368B2 (ja) * 2004-10-08 2010-10-13 キヤノン株式会社 眼検出装置および画像表示装置
JP4683339B2 (ja) * 2006-07-25 2011-05-18 富士フイルム株式会社 画像トリミング装置
JP4663699B2 (ja) * 2007-09-27 2011-04-06 富士フイルム株式会社 画像表示装置、及び画像表示方法
US7885355B2 (en) * 2007-10-15 2011-02-08 Cobham Defense Electronic Corp Multi-dynamic multi-envelope receiver
CA2897227C (en) 2007-12-31 2017-01-10 Applied Recognition Inc. Method, system, and computer program for identification and sharing of digital images with face signatures
US9721148B2 (en) 2007-12-31 2017-08-01 Applied Recognition Inc. Face detection and recognition
US9639740B2 (en) 2007-12-31 2017-05-02 Applied Recognition Inc. Face detection and recognition
JP4856656B2 (ja) * 2008-01-22 2012-01-18 富士重工業株式会社 車両検出装置
US20120019528A1 (en) * 2010-07-26 2012-01-26 Olympus Imaging Corp. Display apparatus, display method, and computer-readable recording medium
JP5685031B2 (ja) * 2010-09-15 2015-03-18 キヤノン株式会社 画像処理装置および画像形成システムおよび画像形成方法
US9728203B2 (en) 2011-05-02 2017-08-08 Microsoft Technology Licensing, Llc Photo-realistic synthesis of image sequences with lip movements synchronized with speech
US9613450B2 (en) * 2011-05-03 2017-04-04 Microsoft Technology Licensing, Llc Photo-realistic synthesis of three dimensional animation with facial features synchronized with speech
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US9846807B1 (en) * 2014-12-31 2017-12-19 Morphotrust Usa, Llc Detecting eye corners
US10089525B1 (en) 2014-12-31 2018-10-02 Morphotrust Usa, Llc Differentiating left and right eye images
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781650A (en) * 1994-02-18 1998-07-14 University Of Central Florida Automatic feature detection and age classification of human faces in digital images
DE60045044D1 (de) * 1999-09-14 2010-11-11 Topcon Corp Angesichtsphotographiervorrichtung und -verfahren
JP3983469B2 (ja) * 2000-11-14 2007-09-26 富士フイルム株式会社 画像処理装置、方法及び記録媒体
WO2004036900A1 (ja) * 2002-08-30 2004-04-29 Sony Corporation 画像抽出装置及び方法、画像処理装置及び処理方法、並びに撮像装置
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102957860A (zh) * 2011-08-11 2013-03-06 三星电子株式会社 图像处理设备和处理图像的方法
US9747492B2 (en) 2011-08-11 2017-08-29 Samsung Electronics Co., Ltd. Image processing apparatus, method of processing image, and computer-readable storage medium

Also Published As

Publication number Publication date
US20050117802A1 (en) 2005-06-02

Similar Documents

Publication Publication Date Title
CN1599406A (zh) 图像处理方法和装置及其程序
CN1305006C (zh) 向图象处理装置提供格式化信息的方法和系统
CN1254769C (zh) 图像处理方法和装置
CN100345158C (zh) 用于产生涉及几何失真的格式化信息的方法和系统
CN1220161C (zh) 图像取入装置和方法
CN1846232A (zh) 使用加权信息的对象姿态估计和匹配系统
CN1675919A (zh) 摄像系统及图像处理程序
CN1510656A (zh) 显示装置、显示方法和显示程序
CN1288174A (zh) 面部影象摄影装置和面部影象摄影方法
CN1678050A (zh) 图像处理系统、投影机以及图像处理方法
CN1765111A (zh) 设备检查装置、基于其上的设备检查系统以及蜂窝电话保持器
CN1190963C (zh) 数据处理装置和方法,学习装置和方法
CN1940994A (zh) 缺陷检测装置、图像传感器器件、图像传感器模块
CN1691130A (zh) 图像处理设备、方法和程序
CN1940965A (zh) 信息处理设备及其控制方法
CN1816275A (zh) 印刷基板的品质管理系统
CN1993707A (zh) 图像处理方法和设备、摄像设备以及程序
CN1926575A (zh) 图像相似度计算系统、图像搜索系统、图像相似度计算方法和图像相似度计算程序
CN1910577A (zh) 图像文件一览显示装置
CN1645241A (zh) 摄影装置、图像处理装置、摄影装置的图像处理方法
CN101079953A (zh) 信息处理系统、信息处理设备、信息处理方法以及程序
CN101052990A (zh) 图像放大装置及程序
CN1817047A (zh) 用于处理具有排列的不同色彩分量的图像的图像处理装置,图像处理程序,电子照相机,以及图像处理方法
CN1856801A (zh) 逐像素有差别和准正则地修改数字图像的方法和系统
CN1841407A (zh) 图像处理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: FUJI PHOTO FILM CO., LTD.

Free format text: FORMER OWNER: FUJIFILM HOLDINGS CORP.

Effective date: 20070629

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20070629

Address after: Tokyo, Japan, West Port, Western linen, two Ding mu, 26 times, No. 30

Applicant after: Fuji Film Corp.

Address before: Kanagawa

Applicant before: Fuji Photo Film Co., Ltd.

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication