浙江大学学报(工学版), 2020, 54(10): 1936-1944 doi: 10.3785/j.issn.1008-973X.2020.10.010

计算机技术

摄像机主动位姿协同的人脸正视图像获取方法

王雯涛,, 李佳田,, 吴华静, 高鹏, 阿晓荟, 朱志浩

Camera active pose cooperation for obtaining face frontal images

WANG Wen-tao,, LI Jia-tian,, WU Hua-jing, GAO Peng, A Xiao-hui, ZHU Zhi-hao

通讯作者: 李佳田,男,教授,博导. orcid.org/0000-0002-2669-4800. E-mail: ljtwcx@163.com

收稿日期: 2019-08-28  

Received: 2019-08-28  

作者简介 About authors

王雯涛(1995—),男,硕士生,从事摄影测量的研究.orcid.org/0000-0002-9380-1485.E-mail:413274795@qq.com , E-mail:413274795@qq.com

摘要

为了主动调整摄像机的位置姿态以在物方空间降低由人脸旋转带来的影响,提出人脸-摄像机主动位姿协同方法. 利用工业摄像机与同步带类运动控制器搭建位姿协同环境,根据单像空间后方交会方法求解运动人脸姿态角和相对位置,计算人脸、摄像机和运动控制器各坐标系之间的映射关系,摄像机运动由相邻采样时刻摄像机相对位置和人脸姿态角计算得出的摄像机协同位姿控制,主动、实时地获取人脸正视图像. 实验表明,运动轴上的摄像机点位误差小于10 mm,取得的人脸正视图像提高了人脸纠正的精准度与鲁棒性.

关键词: 人脸纠正 ; 人脸正视图像 ; 摄影测量 ; 人脸姿态角 ; 位姿协同 ; 运动控制器

Abstract

A face-to-camera active pose cooperation method was proposed in order to reduce the impact of face rotation in object space by actively adjusting the position and attitude of the camera. Environment of pose cooperation was constructed by using an industrial camera and a synchronous belt-like motion controller. The angle of a moving face pose and the relative position between the camera and the face were solved by a single image space resection. The mapping relationship between the coordinate systems of the face, the camera and the motion controller was calculated. The camera motion was controlled by the camera's coordinated pose control calculated from the relative position of the camera and the face attitude angle at the adjacent sampling time, and the face frontal image was acquired actively and real-time. The experimental results showed that the camera point position error on the motion axis was less than 10 mm, and the extracted frontal image improved the accuracy and robustness of face correction.

Keywords: correction of face images ; face frontal images ; photogrammetry ; face pose angle ; pose cooperation ; motion controller

PDF (1751KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王雯涛, 李佳田, 吴华静, 高鹏, 阿晓荟, 朱志浩. 摄像机主动位姿协同的人脸正视图像获取方法. 浙江大学学报(工学版)[J], 2020, 54(10): 1936-1944 doi:10.3785/j.issn.1008-973X.2020.10.010

WANG Wen-tao, LI Jia-tian, WU Hua-jing, GAO Peng, A Xiao-hui, ZHU Zhi-hao. Camera active pose cooperation for obtaining face frontal images. Journal of Zhejiang University(Engineering Science)[J], 2020, 54(10): 1936-1944 doi:10.3785/j.issn.1008-973X.2020.10.010

人脸纠正是将倾斜、偏转的人脸变换为正视人脸图像的过程,是人脸检测、表情识别与人脸识别等技术的关键步骤. 在像方空间下,纠正人脸图像主要采用人脸对齐的方法[1-2].

人脸对齐是根据输入的人脸图像,定位出面部关键特征点,将非正视人脸相似变换至正视人脸[3-4]. 对齐方法主要有手动标定对齐、局部对齐、整体对齐. Mcneill等[5]采用基于分段的形状匹配算法(HPM),在基准形状检索测试中表现良好. Lin等[6]提出基于级联回归的显式形状回归算法(ESR),使用矢量回归函数完成人脸面部形状推断,在面部形状定位中准确度较高. 手动标定对齐适用于构建人脸正视图像样本库. Dantone等[7]采用回归森林方法分类人脸特征点,该方法对于低质量图像具有良好的估算能力.Li等[8]提出两级多任务自动编码框架,通过引入头部姿态信息处理大视点的变化,从而实现脸部快速对准. 局部对齐方法是以先验知识为基础的局部似然估计,当特征点数量增加时,计算代价较高. Tzimiropoulos[9]采用Hand-crafted类型的Sift特征进行无监督学习,建立精确的人脸对齐系统. Xiong等[10]利用线性最小二乘函数的监督下降法,在面部特征检测问题上达到较好的性能. 整体对齐相较于局部对齐表现出较强的鲁棒性与实时性. 当人脸偏转角度较大时,人脸图像变形较大、信息缺失较严重,人脸对齐的累积误差呈现明显的增大趋势,难以纠正人脸图像[11].

运动目标的实时、自动跟踪是计算机视觉、目标识别和安全监控的关键技术之一,为了扩大监视范围,许多监控系统采用摄像机机位主动调整方法[12]. Bernardin等[13]介绍利用平移式可缩放相机对室内环境进行自动监测的系统,表现出较高的自然度、灵活性和鲁棒性. Scotti等[14]提出新型集成多摄像机视频传感器全景场景分析系统,开发了全向成像设备与PTZ相机协同操作的策略. Kim等[15]使用线性判别分析(LDA)特征提取算法和内核相关过滤器(KCF)跟踪算法,主动调整摄像机机位,达到了跟踪监测效果,但需要搭建固定摄像机和PTZ摄像机的多相机协同环境.

本文建立人脸-摄像机位姿协同系统,映射相邻采样时刻的人脸姿态变化量到摄像机所在的运动控制器坐标系中,计算摄像机协同位姿[16]. 将协同位姿信号转换为PCI-1240U4轴运动控制卡控制的步进电机的脉冲信号,实现摄像机位姿的调整,在物方空间降低人脸旋转时的信息丢失,实时获取人脸正视图像,纠正人脸.

1. 人脸姿态计算的摄影测量基础

主动位姿协同需要计算人脸姿态角,现有的人脸姿态角计算方法可以分为基于外观的方法和基于模型的方法[17]. 基于外观的方法是假设人脸运动姿态与人脸特征[18]之间存在某种特定关系,在二维人脸图像中得到特征向量,建立特征向量与人脸运动姿态之间的映射关系来进行姿态计算. 基于模型的方法主要思路是通过构建三维人脸标准模型,利用二维人脸图像特征和三维人脸模型特征间的对应关系来计算人脸姿态. 基于外观的方法关键是所建立映射关系的准确性[19],局限性是过度依赖训练样本数量. 与基于外观的方法相比,基于模型的方法计算简单、精度更高[20-21],因此采用基于模型的方法进行人脸姿态计算.

基于模型的方法的基本思想是通过构建人脸标准模型来表示人脸的结构和形状,选取特征点,在测试人脸与模型之间建立相应的数学关系. 该方法的主要步骤如下:1)检测人脸区域并提取人脸特征点(如瞳孔、鼻子、左眼眼角等);2)确定二维特征点与人脸标准模型上特征点的对应关系;3)利用最小二乘的姿态计算方法,对人脸姿态参数求解.

人脸姿态可以理解为摄影测量领域的相片外方位元素[22-24]. 人脸姿态求解模型的坐标系关系如图1所示. 图中,S-XKYKZK为摄像机坐标系;O-XWYWZW为世界坐标系;o1-x'y'为像平面坐标系;o-u'v'为像素坐标系. x'y'轴分别平行于XSYS轴,且摄像机坐标系中每个像点的ZK坐标均为−ff为相片主距).

图 1

图 1   世界坐标系到摄像机坐标系转换示意图

Fig.1   Conversion diagram for world coordinate system to camera coordinate system


平移旋转世界坐标系变换到摄像机坐标系:

$\left[ {\begin{array}{*{20}{c}} {{X_{\rm{K}}}}\\ {{Y_{\rm{K}}}}\\ {{Z_{\rm{K}}}}\\ 1 \end{array}} \right] = \left[ \begin{array}{l} {{R}}\quad\quad {{t}}\\ {{\bf{0}}^{\rm T}}\quad\; {\bf{1}} \end{array} \right]\left[ {\begin{array}{*{20}{c}} {{X_{\rm{W}}}}\\ {{Y_{\rm{W}}}}\\ {{Z_{\rm{W}}}}\\ 1 \end{array}} \right].$

式中:t为3×1平移向量;R为旋转矩阵,是3×3的正交矩阵,可以表示为

$ \begin{split} {{R}} =& {{{R}}_\varphi }{{{R}}_\omega }{{{R}}_\kappa } = \\ & \left[ {\begin{array}{*{20}{c}} {\cos {\kern 1pt}{\kern 1pt} \varphi }&0&{\sin {\kern 1pt}{\kern 1pt}\varphi }\\ 0&1&0\\ {\sin {\kern 1pt}{\kern 1pt}\varphi }&0&{\cos {\kern 1pt}{\kern 1pt}\varphi } \end{array}} \right]\left[ {\begin{array}{*{20}{c}} 1&0&0\\ 0&{\cos {\kern 1pt}{\kern 1pt}\omega }&{ - \sin {\kern 1pt}{\kern 1pt}\omega }\\ 0&{\sin {\kern 1pt}{\kern 1pt}\omega }&{\cos {\kern 1pt}{\kern 1pt}\omega } \end{array}} \right] \times \\& \left[ {\begin{array}{*{20}{c}} {\cos {\kern 1pt}{\kern 1pt}\kappa }&{ - \sin {\kern 1pt}{\kern 1pt}\kappa }&0\\ {\sin {\kern 1pt}{\kern 1pt}\kappa }&{\cos {\kern 1pt}{\kern 1pt}\kappa }&0\\ 0&0&1 \end{array}} \right] = \left[ {\begin{array}{*{20}{l}} {{a_1}}&{{b_1}}&{{c_1}}\\ {{a_2}}&{{b_2}}&{{c_2}}\\ {{a_3}}&{{b_3}}&{{c_3}} \end{array}} \right].\\[-15pt] \end{split} $

变换摄像机坐标系到像平面坐标系:

${Z_{\rm{K}}}\left[ {\begin{array}{*{20}{c}} {x'} \\ {y'} \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} f&0&{\begin{array}{*{20}{c}} 0&0 \end{array}} \\ 0&f&{\begin{array}{*{20}{c}} 0&0 \end{array}} \\ 0&0&{\begin{array}{*{20}{c}} 1&0 \end{array}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{X_{\rm{K}}}} \\ {{Y_{\rm{K}}}} \\ {{Z_{\rm{K}}}} \\ 1 \end{array}} \right].$

变换像平面坐标系到像素坐标系:

$\left[ {\begin{array}{*{20}{c}} {u'} \\ {v'} \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\dfrac{1}{{{\rm{d}}x}}}&0&{{u_0}} \\ 0&{\dfrac{1}{{{\rm{d}}y}}}&{{v_0}} \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {x'} \\ {y'} \\ 1 \end{array}} \right].$

式中:dx和dy表示每个像素在像平面坐标系x'y'方向上的物理尺寸,(u0v0)为o1在像素坐标系上的坐标. 根据式(1)、(3)、(4),可得世界坐标系到像素坐标系的变换公式:

${Z_{\rm{c}}}\left[ {\begin{array}{*{20}{c}} {u'} \\ {v'} \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\dfrac{f}{{{\rm{d}}x}}}&0&{\begin{array}{*{20}{c}} {{u_0}}&0 \end{array}} \\ 0&{\dfrac{f}{{{\rm{d}}y}}}&{\begin{array}{*{20}{c}} {{v_0}}&0 \end{array}} \\ 0&0&{\begin{array}{*{20}{c}} 1&0 \end{array}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{R}}&{{t}} \\ {{{{0}}^{\rm{T}}}}&{\bf{1}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{X_{\rm{W}}}} \\ {{Y_{\rm{W}}}} \\ {{Z_{\rm{W}}}} \\ 1 \end{array}} \right].$

设人脸特征点P在世界坐标系和摄像机坐标系中的坐标分别为(XWYWZW)与(XCYCZC),摄影中心S在世界坐标系中的坐标为(XSYSZS). 摄像机坐标系经过旋转矩阵R变换后,将式(1)表示为

$\left[ {\begin{array}{*{20}{c}} {{X_{\rm{C}}}}\\ {{Y_{\rm{C}}}}\\ {{Z_{\rm{C}}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{a_1}}&{{b_1}}&{{c_1}}\\ {{a_2}}&{{b_2}}&{{c_2}}\\ {{a_3}}&{{b_3}}&{{c_3}} \end{array}} \right]\left[ \begin{array}{l} {X_{\rm{W}}} - {X_{{S}}}\\ {Y_{\rm{W}}} - {Y_{{S}}}\\ {Z_{\rm{W}}} - {Z_{{S}}} \end{array} \right].$

特征点P在摄像机坐标系中的坐标可以表示为(u−u0v−v0−f),代入到式(6),展开为共线方程形式:

$\left. {\begin{array}{*{20}{l}} {u' \!-\! {u_0} \!= \! - f\dfrac{{{a_1}\left( {{X_{\rm{W}}} \!-\! {X_S}} \right) + {b_1}\left( {{Y_{\rm{W}}}\! -\! {Y_S}} \right) + {c_1}\left( {{Z_{\rm{W}}} \!-\! {Z_S}} \right)}}{{{a_3}\left( {{X_{\rm{W}}} \!-\! {X_S}} \right) + {b_3}\left( {{Y_{\rm{W}}} \!-\! {Y_S}} \right) + {c_3}\left( {{Z_{\rm{W}}} \!-\! {Z_S}} \right)}},}\\ {v' \!-\! {v_0} \!= \! - f\dfrac{{{a_2}\left( {{X_{\rm{W}}} \!-\! {X_S}} \right) + {b_2}\left( {{Y_{\rm{W}}} \!-\! {Y_S}} \right) + {c_2}\left( {{Z_{\rm{W}}} \!-\! {Z_S}} \right)}}{{{a_3}\left( {{X_{\rm{W}}} \!-\! {X_S}} \right) + {b_3}\left( {{Y_{\rm{W}}} \!-\! {Y_S}} \right) + {c_3}\left( {{Z_{\rm{W}}} \!-\! {Z_S}} \right)}}.} \end{array}} \right\} $

根据共线方程,采样时刻的人脸图像外方位元素φωκXSYSZS由单像空间后方交会解算得出.

求解人脸姿态时,对标准人脸模型进行旋转、平移、缩放,以使标准人脸模型的特征点在像平面的投影与相应待测图像中的人脸特征点最佳拟合[20]. 利用最小二乘法,将标准人脸特征点与待测人脸特征点进行拟合:

$f(\varphi ,\omega ,\kappa ) = \min\left\{ {\sum\limits_{i = 1}^n {{{\left\| {\ {{{p}}_{{i}}} - S [{{R}}(\hat \varphi ,\hat \omega ,\hat \kappa ){{{q}}_{{i}}} + {{t}}]\ } \right\|}^2}} } \right\}.$

式中:S为缩放因子,n为特征点数目,pi为待测图像人脸特征点,qi为相应标准人脸模型特征点,(φωκ)为待测图像人脸与标准模型人脸最佳拟合时标准模型的人脸姿态.

q=[quqv]Tl=[uu0vv0]Tp=[φωκXSYSZS]T,单个特征点的拟合误差为

${{e}} = {{q}}\left( {{p}} \right) - {{l}}.$

n个特征点的拟合误差为E=[e1e2,···,en]T. 联立式(9),求解人脸姿态:

$\begin{split} \hat {{p}} = & \arg \min {{{E}}^{\rm{T}}}{{E}} = \arg \min f(\hat {{p}}) = \\ & {({{Q}}(\hat {{p}}) - {{L}})^{\rm{T}}}({{Q}}(\hat {{p}}) - {{L}}). \end{split} $

式中:Q=[q1q2,···,qn]TL=[l1l2,···,ln]T.

2. 人脸-摄像机位姿协同控制设计

位姿协同控制即连续采样运动中的人脸,实时计算人脸姿态变化对应的摄像机协同位姿,以调用运动控制器控制摄像机协同运动.

针对人脸-摄像机位姿协同控制,设计摄像机运动控制器. 如图2所示,建立运动控制器坐标系o-xyu,其中水平轴、竖直轴、旋转轴分别为x轴、y轴、u轴.图2右上为摄像机旋转轴u轴的放大图. 运动控制器、摄像机、人脸各坐标系的初始位置如图3所示. 摄像机坐标系为S-XWYWZW,人脸坐标系O-XYZ以鼻尖为原点,初始状态的x轴、XW轴和X轴互相平行,y轴、YW轴和Y轴互相平行.

图 2

图 2   摄像机运动控制器

Fig.2   Camera motion controller


图 3

图 3   初始采样时刻各个坐标系的位置关系图

Fig.3   Position diagram of each coordinate system at initial sampling time


假设以ri–1=[φi–1ωi–1κi–1]为ti–1时刻人脸姿态, Ti–1=[XSi–1YSi–1ZSi–1]为摄像机相对位置. ri=[φiωiκi]为ti时刻人脸姿态, Ti=[XSiYSiZSi]为摄像机相对位置. 相邻采样时刻的人脸姿态变化可以表示为

$\Delta {{{r}}_{{i}}} = {{{{r}}_{{i}}} - {{{r}}_{{{i}} - 1}}} = \left[ {\Delta {\varphi _{{i}}},\Delta {\omega _{{i}}},\Delta {\kappa _{{i}}}} \right].$

摄像机相对位置的变化量表示为

$\Delta {{{T}}_{{i}}} = {{{T}}_{{i}}} - {{{T}}_{{{i}} - 1}} = \left[\Delta {X_{{i}}},\Delta {Y_{{i}}},\Delta {Z_{{i}}}\right].$

摄像机协同位姿为M=[TxTyRω]T. 摄像机协同位姿计算的关键是将人脸运动中姿态角变化而导致的摄像机在xy轴产生的平移分量补偿到摄像机协同位姿中[25].

以人脸绕Y轴旋转为例,分析人脸姿态角变化对TxTy的影响. 设从ti-1ti采样时刻,相邻采样时刻姿态角变化为[0,Δωi,0]. 根据空间几何关系可知,

$\begin{split} {T_{{x_{{i}}}}} = & \Delta {X_{{i}}} + \left( {D + \Delta {Z_{{i}}}} \right)\tan{\kern 1pt}{\kern 1pt}\Delta {\omega _{{i}}} - \\ & \left( {D + \Delta {Z_{{{i}} - 1}}} \right)\tan{\kern 1pt}{\kern 1pt}\Delta {\omega _{{{i}} - 1}}. \end{split} $

同理,人脸绕X轴旋转,姿态角变化为[Δφi,0,0],

$\begin{split} {T_{{y_{{i}}}}} = & \Delta {Y_{{i}}} + \left( {D + \Delta {Z_{{i}}}} \right)\tan\Delta {\varphi _{{i}}} - \\ & \left( {D + \Delta {Z_{{{i}} - 1}}} \right)\tan\Delta {\varphi _{{{i}} - 1}}. \end{split} $

式中:D为初始采样时刻人脸距离摄像机的距离. 从ti−1ti采样时刻,人脸姿态角变化为[Δφi,Δωi,Δκi],ti采样时刻的摄像机协同位姿为

$\begin{split} & \left[\!\! {\begin{array}{*{20}{c}} {{T_{{x_{{i}}}}}} \\ {{T_{{y_{{i}}}}}} \\ {{R_{{\omega _{{i}}}}}} \end{array}}\!\! \right] = \left[\!\! {\begin{array}{*{20}{c}} {\Delta {X_{{i}}}} \\ {\Delta {Y_{{i}}}} \\ {\Delta {\omega _{{i}}}} \end{array}}\!\! \right] + \\ & \left[ \!\!{\begin{array}{*{20}{c}} {\tan\Delta {\omega _{{i}}}}&{\tan\Delta {\omega _{{{i}} - 1}}}&0&0 \\ 0&0&{\tan\Delta {\varphi _{{i}}}}&{\tan\Delta {\varphi _{{{i}} - 1}}} \\ 0&0&0&0 \end{array}}\!\! \right]\left[\!\! {\begin{array}{*{20}{c}} D \\ {\Delta {Z_{{i}}}} \\ { - D} \\ {\Delta {Z_{{{i}} - 1}}} \end{array}}\!\! \right].\end{split}$

图4所示,ti−2~ti表示ti−2~ti连续采样时刻摄像机所拍摄的人脸图像,Ci−2~Ci表示摄像机在相应采样时刻的运动位置.

图 4

图 4   人脸与摄像机位置关系的示意图

Fig.4   Schematic diagram of relationship between face and camera position


3. 实验与分析

实验所用设备有工业摄像机、同步带类两轴运动控制器,按照2.3节设计的实验方案安装摄像机. 实验平台由计算机、PCI-1240U4轴运动控制卡、连接缆线、3个接线板、3个步进电机、2个同步带控制导轨、光感传感器组成,如图2所示. 实验中拍摄的人脸图像分辨率为640×480像素. 实验分为人脸姿态参数计算、位姿协同控制、协同适用性和正视图像获取4部分开展.

3.1. 姿态参数计算

在计算姿态参数时需要进行检测人脸区域,提取人脸特征点. 采用OpenCV提供的相关函数检测人脸区域,利用级联回归树方法提取人脸特征点,并对特征点编号,以便索引特征点.

根据标准人脸模型中特征点三维坐标和相应待测图像人脸特征点的二维坐标,由单向空间后方交会解算人脸姿态参数. 标定摄像机内参,在实验过程中假设摄像机没有畸变. 已标定的摄像机内参矩阵如下:

选取三维人脸标准模型中极具代表性的6个特征点:左眼左角点、嘴巴左角点、右眼右角点、嘴巴右角点、下巴、鼻尖. 对应的三维坐标如表1所示.

表 1   标准人脸模型特征点的三维坐标

Tab.1  Three-dimensional coordinates of feature points of standard face model

特征点 XW YW ZW
左眼左角点 −220.0 165.0 −130.0
嘴巴左角点 −145.0 −145.0 −120.0
右眼右角点 220.0 165.0 −130.0
嘴巴右角点 145.0 −145.0 −120.0
下巴 0.0 −325.0 −60.0
鼻尖 0.0 0.0 0.0

新窗口打开| 下载CSV


控制人脸分别绕人脸坐标系的XYZ轴旋转不同的角度,用摄像机拍摄人脸图像,计算不同采样时刻时的人脸姿态角φωκ. 控制人脸旋转角度在[−70°,70°],以提高人脸区域检测的准确性. 对比同一采样时刻的人脸姿态角的协同系统计算值与物理量测值,如表2所示. 表中,φωκ为人脸绕XYZ轴旋转角的协同系统计算值,φ'ω'κ'为物理量测值. 人脸姿态角计算误差均小于0.05 rad.

表 2   不同采样时刻人脸姿态

Tab.2  Face pose at different sampling moments

ti 人脸姿态 φ φ' ω ω' κ κ'
t1 0.0306 0.0307 −0.2621 −0.2613 3.1195 3.1200
t2 0.0308 0.0305 −0.3072 −0.3064 3.1186 3.1179
t3 0.0319 0.0311 −0.8121 −0.8112 3.1178 3.1173
t4 0.0305 0.0312 −1.1629 −1.1638 3.1260 3.1256
t5 0.0316 0.0315 −0.7629 −0.7628 2.8835 2.8829
t6 0.5354 0.5353 −0.2771 −0.2770 3.1225 3.1217
t7 −0.3146 −0.3148 −0.2551 −0.2555 3.1135 3.1138

新窗口打开| 下载CSV


在求解人脸姿态角的同时,计算摄像机相对于人脸的位置XSYSZS. 同一采样时刻下摄像机相对位置的协同系统计算值XSYSZS与相应的物理量测值 ${X_S^{'}}$$ {Y_S^{'}} $$ {Z_S^{'}} $的对比,如表3所示,对应表2不同采样时刻下摄像机相对于人脸的位置. 摄像机相对于人脸位置的误差均小于10 mm.

表 3   不同采样时刻摄像机相对位置

Tab.3  Relative camera position at different sampling moments

ti XS ${X_S^{'}}$ ${Y_S}$ ${Y_S^{'}}$ ZS ${Z_S^{'}}$
t1 10.230 11.610 10.511 8.261 2449.88 2442.07
t2 80.299 78.629 21.900 18.840 2449.88 2450.25
t3 53.597 52.457 46.397 44.217 2449.87 2451.95
t4 41.106 39.416 35.589 39.119 2449.07 2456.19
t5 109.310 106.660 42.763 47.613 2450.17 2455.20
t6 14.464 16.014 65.387 61.317 2449.77 2452.04
t7 4.230 4.140 −33.453 −37.803 2449.97 2444.28

新窗口打开| 下载CSV


3.2. 位姿协同控制

根据连续采样时刻的人脸姿态角、摄像机相对位置解算相邻采样时刻的人脸姿态变化,映射摄像机在采样间隔下的协同位姿到运动控制器坐标系中. 然后转换为步进电机的输出脉冲,控制摄像机运动. 以摄像机初始位置为原点,设置运动控制器的运动模式为相对运动. 人脸在XY轴作平移运动,绕U轴作旋转运动. 连续采样时刻的人脸姿态计算结果如表4所示.

表 4   人脸姿态及摄像机相对位置

Tab.4  Face pose and relative camera position

位置 X Y Z φ ω κ
P1 107.33 82.02 2452.59 0.061 −0.29 3.124
P2 115.85 84.06 2457.74 0.058 −0.281 3.121
P3 123.13 84.02 2459.14 0.064 −0.317 3.054
P4 128.66 83.86 2462.48 0.072 −0.371 3.078
P5 131.64 83.93 2464.75 0.061 −0.359 3.049
P6 135.84 82.31 2467.73 0.072 −0.395 3.061
P7 149.44 83.45 2468.52 0.073 −0.402 3.13
P8 161.56 84.75 2469.77 0.069 −0.456 3.044
P9 161.87 83.13 2470.87 0.061 −0.467 3.127
P10 168.81 82.54 2479.31 0.072 0.005 3.073

新窗口打开| 下载CSV


利用表4的姿态参数计算摄像机的协同位姿,将协同位姿转换为脉冲输入到运动控制器中. 连续采样间隔下摄像机的协同位姿与步进电机脉冲输入量如表5所示. 表中,x轴、y轴位移量分别以TxTy表示;u轴旋转量以Rω表示,单位为rad;脉冲输入量以P表示,脉冲量单位PPU是运动控制卡的虚拟单位,表示装置实际运动1 mm轴卡需输入的脉冲数.

表 5   摄像机位置变化量与步进电机脉冲输入量

Tab.5  Camera position change and stepper motor pulse input

位置变化 x y u
Tx/mm P/PPU Ty/mm P/PPU Rω/rad P/PPU
P1P2 5.809 1452.25 0.049 12.25 0.0837 59.757
P2P3 7.168 1792.00 −0.018 −4.50 0.0361 48.966
P3P4 10.735 2683.75 0.142 35.50 0.0697 52.631
P4P5 4.731 1182.75 0.099 24.75 0.0588 49.678
P6P7 7.847 1961.75 0.054 13.50 0.0751 68.308
P7P8 13.574 3393.5 0.098 24.50 0.0772 58.230
P8P9 15.684 3921 0.093 23.25 0.0315 29.013
P9P10 10.944 2736 0.026 6.50 0.0352 38.888

新窗口打开| 下载CSV


由PCI-1240U4轴运动控制卡控制运动控制器的运动轴,设置3帧为采样间隔输入脉冲,以保证摄像机位姿调整的连续性. 结合步进电机参数,协同位姿与脉冲量的转换关系如下:1 018个脉冲为实际旋转角度1°,250个脉冲为实际距离1 mm. 将摄像机协同位姿转换为脉冲的计算如下:平移量乘以250,旋转量乘以1 018. 当水平轴和竖直轴的调整量小于1 mm、旋转轴的调整量小于1°时,将对应的输入脉冲设置为0,以提高协同控制的准确性. 设置后的运动控制器水平、竖直轴控制误差小于1 mm,旋转轴控制误差小于1°.

设置步进电机输入脉冲为3000 PPU/S,人脸在XY轴方向作平移运动,如图5所示. 图中,f为不同采样时刻的图像帧序列,ExEy分别为摄像机x轴、y轴的位置误差. 在采样的第15帧和第285帧左右人脸处于转向时刻,摄像机轴上位置误差变化较大. 人脸位姿计算出现延迟现象,故位置误差较大. 其余采样时刻误差均小于10 mm,表明位姿协同控制的有效性.

图 5

图 5   摄像机在xy轴的位置误差曲线

Fig.5   Position error curve of camera on x and y axis


以10个采样时刻的摄像机位置x轴误差为例,人脸姿态计算误差和步进电机控制误差对最终误差的影响如表6所示. 表中,Ec为摄像机位置x轴误差,Ep为人脸位姿计算误差,Em为步进电机控制误差. 从表6可知,人脸姿态计算误差对最终误差的影响比重约为0.9.

表 6   摄像机位置x轴误差分析

Tab.6  Camera position x-axis error analysis

ti Ec/mm Ep/mm Em/mm
t1 −7.58 −6.445 −1.135
t2 3.16 2.740 0.42
t3 8.14 7.308 0.832
t4 6.92 6.181 0.739
t5 −6.17 −5.615 −0.555
t6 4.37 3.852 0.518
t7 6.46 5.713 0.747
t8 7.78 6.990 0.790
t9 −2.57 −2.370 −0.200
t10 2.66 2.501 0.159

新窗口打开| 下载CSV


3.3. 协同适用性

设置步进电机的输入脉冲为3000 PPU/S,控制人脸以不同速度在水平、竖直方向平移运动,分析平移速度对位姿协同的影响. 如图6所示,以人脸在竖直方向平移运动为例,图6(a)~(c)给出不同速度下的摄像机y轴协同误差. 当人脸平移速度较快时,摄像机y轴协同误差较大,延迟现象发生,位姿协同系统紊乱.

图 6

图 6   不同平移速度下的摄像机y轴位置误差分析

Fig.6   Analysis of camera y-axis position error at different translation speeds


控制人脸以不同角速度作偏转运动,分析偏转角速度对位姿协同的影响. 如图7(a)~(c)所示为不同角速度下的摄像机u轴协同误差. 当人脸偏移角速度较快时,摄像机u轴协同误差较大,相机协同不稳定,并伴有延迟现象发生.

图 7

图 7   不同角速度下的摄像机u轴位置误差分析

Fig.7   Analysis of u-axis position error of camera at different angular velocities


在平移、偏转运动的转向时刻所采样的图像,平移速度和偏转角速度较快,会造成摄像机对应轴的协同误差增大,相机协同不稳定并伴随延迟现象,导致位姿协同系统紊乱. 当人脸平移运动速度小于30 cm/s,人脸偏转运动角速度小于45(°)/s时,本文方法的位姿协同系统能够快速、稳定地协同人脸.

3.4. 正视图像的获取

将摄像机静止下所拍摄的人脸图像集与位姿协同下所拍摄的人脸正视图像集分别利用手动标定对齐[6]、局部对齐[7-8]、整体对齐[10]的方法进行人脸对齐和误差评定,如图8所示. 人脸对齐的评价标准参考文献[9],模型评估指标受试者工作特征曲线下面积(area under curve,AUC)越大,人脸对齐的累积误差越小,人脸对齐精度越高. 利用位姿协同所拍摄的人脸正视图像集,相较于摄像机静止所拍摄的人脸图像集,AUC较大,人脸对齐的准确度更高.

图 8

图 8   人脸图像与正视人脸图像的对齐对比分析

Fig.8   Comparative analysis of alignment between face image and face image


当人脸偏转角度分别为5°、15°、25°、35°、45°、55°时,利用文献[10]的方法分别对摄像机静止时所拍摄的人脸图像与位姿协同下所拍摄的人脸图像进行人脸对齐,以纠正人脸. 如图9(a)~(f)所示为摄像机静止时所拍摄的人脸进行纠正后的图像,如图9(g)~(l)所示为对应人脸偏转角度下摄像机进行位姿协同所拍摄的人脸进行纠正后的图像.

图 9

图 9   不同偏转角度下人脸图像与正视图像的对齐对比分析

Fig.9   Contrast analysis of face image and face-up image at different deflection angles


当人脸偏转角度小于10°时,图9(a)(b)的人脸对齐准确,人脸纠正效果良好. 随着人脸偏转角度的增加,人脸右侧的信息量丢失越来越多,人脸对齐偏差增大,纠正后的人脸图像形变越来越严重,如图9(c)~(e)所示. 当人脸偏转角度>55°时,人脸右侧信息量丢失过多,难以进行人脸对齐和人脸纠正,如图9(f)所示. 如图9(g)~(l)所示,在人脸偏转角度增大的情况下,人脸图像信息完整,人脸对齐和人脸纠正较准确. 位姿协同系统下的人脸正视图像获取,通过在物方空间下调整摄像机位姿,获取正视或近似正视人脸图像,减少人脸信息的丢失,提高人脸纠正的精度.

定量对比分析摄像机静止和位姿协同下所拍摄的人脸图像对人脸对齐的影响. 以人脸正对摄像机为起始状态,绕Y轴缓慢逆时针旋转. 分别控制摄像机静止和作位姿协同运动,拍摄不同角度下的人脸图像,利用手动标定对齐[6]、局部对齐[7-8]、整体对齐[10]的方法进行人脸对齐的效果如图10所示. 图中,c为人脸偏转角度.

图 10

图 10   不同偏转角度对正视图像人脸对齐的影响

Fig.10   Contrast analysis of face image and face-up image at different deflection angles


对于摄像机静止下所拍摄的人脸图像,文献[6]、[7]、[8]、[10]方法分别在人脸偏转角大于6°、6°、9°、14°时,AUC逐渐减小,人脸对齐的累积误差逐渐增大,人脸对齐逐渐失准. 对于位姿协同下所拍摄的人脸图像,这4种方法在同样的人脸偏转角度时,AUC较高,人脸对齐的累积误差较小,人脸对齐的准确度保持在良好稳定水平. 可知,位姿协同下获取的人脸正视图像,减缓因人脸偏转角度大而引起的人脸图像的形变和信息缺失,降低人脸对齐精度对人脸偏转角度的敏感度,提高人脸对齐的鲁棒性.

4. 结 语

位姿协同下的正视人脸图像获取方法在物方空间下,实时调整摄像机位姿,获取正视或近似正视的人脸图像,降低人脸信息的丢失,提高人脸图像纠正的精度. 随着人脸检测、表情识别与人脸识别等一系列人脸算法的推广,人脸-摄像机主动位姿协同的正视人脸图像获取方法具有广阔的应用前景. 该方法的局限性在于本文的位姿协同在人脸转向时,存在不稳定现象. 进一步研究主要从2个方向着手:寻找有效方法提高人脸姿态计算精度,提高摄像机位姿协同对不同人脸运动方式的适应性,提高位姿协同的稳定性;三轴运动控制器下的位姿协同通过空间关系推广至更多轴、更复杂的运动控制器下的位姿协同,精准保持摄像机与运动人脸之间的相对位姿,以提高正视人脸图像获取的精准度.

参考文献

CAO X, WEI Y, WEN F, et al

Face alignment by explicit shape regression

[J]. International Journal of Computer Vision, 2014, 107 (2): 177- 190

DOI:10.1007/s11263-013-0667-3      [本文引用: 1]

ZHANG K, ZHANG Z, LI Z, et al

Joint face detection and alignment using multitask cascaded convolutional networks

[J]. IEEE Signal Processing Letters, 2016, 23 (10): 1499- 1503

DOI:10.1109/LSP.2016.2603342      [本文引用: 1]

CHEN D, REN S, WEI Y, et al. Joint cascade face detection and alignment [C] // European Conference on Computer Vision. Switzerland: Springer, 2014: 109-122.

[本文引用: 1]

LIAO S, JAIN A K, LI S Z

Partial face recognition: alignment-free approach

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35 (5): 1193- 1205

DOI:10.1109/TPAMI.2012.191      [本文引用: 1]

MCNEILL G, VIJAYAKUMAR S. Hierarchical procrustes matching for shape retrieval [C] // 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2006: 885-894.

[本文引用: 1]

LIN C, ZHANG T, LV C, et al. Improved explicit shape regression face alignment algorithm[C] // 2018 Chinese Control and Decision Conference. Shenyang: IEEE, 2018: 1166-1169.

[本文引用: 4]

DANTONE M, GALL J, FANELLI G, et al. Realtime facial feature detection using conditional regression forests [C] // IEEE Conference on Computer Vision and Pattern Recognition. Providence: IEEE, 2012: 2578-2585.

[本文引用: 4]

LI Q, SUN Z, HE R. Fast multi-view face alignment via multi-task auto-encoders [C] // 2017 IEEE International Joint Conference on Biometrics. Denver: IEEE, 2017: 538-545.

[本文引用: 4]

TZIMIROPOULOS G. Project-out cascaded regression with an application to face alignment [C] // IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 3659-3667.

[本文引用: 2]

XIONG X, TORRE F D L. Supervised descent method and its applications to face alignment [C] // IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE, 2013: 532-539.

[本文引用: 5]

LIU X Y

An empirical study of boosting methods on severely imbalanced data

[J]. Applied Mechanics and Materials, 2014, 513 (2): 2510- 2513

[本文引用: 1]

DING C, SONG B, AKSHAY M, et al

Collaborative sensing in a distributed PTZ camera network

[J]. IEEE Transactions on Image Processing, 2012, 21 (7): 3282- 3295

DOI:10.1109/TIP.2012.2188806      [本文引用: 1]

BERNARDIN K, CAMP F V D, STIEFELHAGEN R. Automatic person detection and tracking using fuzzy controlled active cameras [C] // IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis: IEEE, 2007: 1-8.

[本文引用: 1]

SCOTTI G, MARCENARO L, COELHO C, et al

Dual camera intelligent sensor for high definition 360 degrees surveillance

[J]. IEE Proceedings of Vision Image and Signal Processing, 2005, 152 (2): 250- 257

DOI:10.1049/ip-vis:20041302      [本文引用: 1]

KIM S, CHOI J. Face recognition method based on fixed and PTZ camera control for moving humans [C] // 2019 11th International Conference on Ubiquitous and Future Networks. Zagreb: IEEE, 2019: 561-563.

[本文引用: 1]

张文靖. 人脸-摄像机主动位姿协同[D]. 昆明: 昆明理工大学, 2019.

[本文引用: 1]

ZHANG Wen-jing. Face-camera active pose cooperation [D]. Kunming: Kunming University of Science and Technology, 2019.

[本文引用: 1]

曾慧, 穆志纯, 袁立

基于三维模型的人脸姿态估计方法

[J]. 计算机工程, 2011, 37 (9): 1- 3

[本文引用: 1]

ZENG Hui, MU Zhi-chun, YUAN li

Face pose estimation method based on 3D model

[J]. Computer Engineering, 2011, 37 (9): 1- 3

[本文引用: 1]

LEE D, YANG M H, OH S. Fast and accurate head pose estimation via random projection forests [C] // IEEE Proceedings of the International Conference on Computer Vision. Santiago: IEEE, 2015: 1958-1966.

[本文引用: 1]

MURPHY C E, TRIVEDI M M

Head pose estimation in computer: a survey

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31 (4): 607- 626

DOI:10.1109/TPAMI.2008.106      [本文引用: 1]

王世宙. 双目立体测量系统中数控平台的设计与标定 [D]. 南京: 南京航空航天大学, 2011.

[本文引用: 2]

WANG Shi-zhou. The design and calibration of the NC platform in binocular stereo measurement [D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2011.

[本文引用: 2]

邵杰, 张爱武, 王书民, 等

交替误差补偿的无人飞艇位姿估计

[J]. 计算机辅助设计与图形学学报, 2013, 25 (9): 1361- 1367

[本文引用: 1]

SHAO Jie, ZHANG Ai-wu, WANG Shu-min, et al

Pose estimation of unmanned airship of alternating error compensation

[J]. Journal of Computer-Aided Design and Computer Graphics, 2013, 25 (9): 1361- 1367

[本文引用: 1]

龚健雅, 季顺平

从摄影测量到计算机视觉

[J]. 武汉大学学报: 信息科学版, 2017, 42 (11): 1518- 1522

[本文引用: 1]

GONG Jian-ya, JI Shun-ping

Form photogrammetry to computer vision

[J]. Geomatics and Information Science of Wuhan University, 2017, 42 (11): 1518- 1522

[本文引用: 1]

龚健雅, 季顺平

摄影测量与深度学习

[J]. 测绘学报, 2018, 47 (6): 693- 704

GONG Jian-ya, JI Shun-ping

Photogrammetry and deep learning

[J]. Acta Geodaetica et Cartographica Sinica, 2018, 47 (6): 693- 704

DROUARD V, HORAUD R, DELEFORGE A, et al

Robust head-pose estimation based on partially-latent mixture of linear regressions

[J]. IEEE Transactions on Image Processing, 2017, 26 (3): 1428- 1440

DOI:10.1109/TIP.2017.2654165      [本文引用: 1]

李成龙, 钟凡, 马昕, 等

基于卡尔曼滤波和随机回归森林的实时头部姿态估计

[J]. 计算机辅助设计与图形学学报, 2017, 29 (12): 2309- 2316

DOI:10.3724/SP.J.1089.2017.16521      [本文引用: 1]

LI Cheng-long, ZHONG Fan, MA Xin, et al

Real-time head pose estimation based on Kalman and random regression forest

[J]. Journal of Computer-Aided Design and Computer Graphics, 2017, 29 (12): 2309- 2316

DOI:10.3724/SP.J.1089.2017.16521      [本文引用: 1]

/