浙江大学学报(工学版), 2025, 59(9): 1864-1871 doi: 10.3785/j.issn.1008-973X.2025.09.010

计算机技术

基于几何拓扑的汽车视角识别及三维线框模型重建

吴奇,, 王博,, 王华伟, 胡溧, 李宝军

1. 武汉科技大学 汽车与交通工程学院,湖北 武汉 430081

2. 大连理工大学 汽车工程学院,辽宁 大连 116024

Vehicle view recognition and 3D wireframe model reconstruction based on geometric topology

WU Qi,, WANG Bo,, WANG Huawei, HU Li, LI Baojun

1. School of Automotive and Traffic Engineering, Wuhan University of Science and Technology, Wuhan 430081, China

2. School of Automotive Engineering, Dalian University of Technology, Dalian 116024, China

通讯作者: 王博,女,副教授. orcid.org/0000-0003-3497-8931. E-mail:wangbo66@wust.edu.cn

收稿日期: 2023-09-4  

基金资助: 国家自然科学基金资助项目(52375260,51905389).

Received: 2023-09-4  

Fund supported: 国家自然科学基金资助项目(52375260,51905389).

作者简介 About authors

吴奇(2001—),男,硕士生,从事计算机图形学研究.orcid.org/0009-0008-3040-6737.E-mail:2258151731@qq.com , E-mail:2258151731@qq.com

摘要

面对复杂设计任务,传统手绘草图和三维重建方法常常须投入巨大的时间、人力和财力. 为了克服这些挑战,提出基于几何拓扑的汽车视角识别及三维线框模型重建方法. 建立包含少量汽车三维线框模型的模型库,通过对车身高度、宽度、轴距等参数进行多尺度缩放,扩充至3528个模型. 车身关键点标注采用基于Matlab开发的交互系统,利用标注的关键点与三维线框模型库中不同视角的投影点集进行匹配,对汽车角度进行识别. 根据关键点在三维模型中的关联关系,利用带约束的最小二乘法,完成复杂三维线框模型的重建. 通过更新模型库中模型以及关键点位置即可实现对任意车型三维线框模型的重建. 对SUV和MPV两种不同车型的三维线框模型进行重建,实验结果表明,重建结果耗时约33~44 s,关键点误差小于32 mm,该方法在不同视角下的重建时间和重建误差显著低于传统的重建方法,具有更高的重建效率和精度.

关键词: 汽车造型 ; 几何拓扑 ; 关键点 ; 汽车角度识别 ; 三维线框重建

Abstract

In the face of complex design tasks, traditional hand-drawn sketches and 3D reconstruction methods often require a huge investment of time, labor, and financial resources. In order to overcome these challenges, a geometric topology-based viewpoint recognition and 3D wireframe model reconstruction method for automobiles was proposed. A model library containing a small number of 3D wireframe models of automobiles was established, which was expanded to 3528 models by multi-scale scaling of body height, width, wheelbase and other parameters. The key point labeling of the car body adopted an interactive system developed based on Matlab, which utilized the labeled key points to match with the projection point sets of different viewpoints in the 3D wireframe model library to identify the angles of the car. The reconstruction of the complex 3D wireframe model was accomplished by using the least squares method with constraints based on the topological relationships of the key points in the 3D model. The reconstruction of 3D wireframe model of arbitrary vehicle types could be realized by updating the model in the model library and the positions of key points. The experimental results showed that the reconstruction time was about 33~44 seconds, and the error of key points was controlled within 32 mm. The reconstruction time and reconstruction error of this method were significantly lower those of the traditional reconstruction method in different viewpoints, demonstrating higher reconstruction efficiency and accuracy.

Keywords: car modeling ; geometric topology ; key point ; vehicle angle recognition ; 3D wireframe reconstruction

PDF (2613KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

吴奇, 王博, 王华伟, 胡溧, 李宝军. 基于几何拓扑的汽车视角识别及三维线框模型重建. 浙江大学学报(工学版)[J], 2025, 59(9): 1864-1871 doi:10.3785/j.issn.1008-973X.2025.09.010

WU Qi, WANG Bo, WANG Huawei, HU Li, LI Baojun. Vehicle view recognition and 3D wireframe model reconstruction based on geometric topology. Journal of Zhejiang University(Engineering Science)[J], 2025, 59(9): 1864-1871 doi:10.3785/j.issn.1008-973X.2025.09.010

随着人们物质需求的日益增长与汽车业的蓬勃发展,汽车造型设计越来越受到人们的关注[1]. 三维模型的重建是一项至关重要的技术,它使得设计师能够精确捕获和复现车辆的复杂几何结构. 传统的建模技术往往依赖繁琐的手工过程,这不仅耗时耗力,而且难以应对复杂的车身形状和细节[2]. 如何对三维模型进行快速建模,从而缩短汽车造型的研发周期,是非常有价值的研究领域.

Wang等[3]提出通过外壳嵌入来改善单视图三维物体重建的质量,利用概率视角将2D图像转化为3D形状. Liu等[4]基于生成对抗网络和无监督学习技术,探索从单一视图重建三维对象的新方法. Wallace等[5]通过先验知识,实现对单图像三维重建的快速泛化学习,有效提高了模型对新物体的适应能力和重建精度. Kato等[6]提出结合深度学习和传统几何学的混合模型,研究通过学习形状先验来改善单视图三维重建的效果. Wu等[7]提出通过形状先验知识来补全和重建从单视图获取三维对象的方法,在处理车辆和其他常见物品时具有较高精度. Xu等[8]建立了深度隐式表面网络,通过自动解码器增强模型的表达能力,完成从单一视图生成高质量的三维重建. Reddy等[9]结合点追踪技术和部件检测技术提高车辆动态场景中的重建质量和实时性,实现了动态车辆的三维重建. Tatarchenko等[10]采用卷积神经网络模型,通过端到端学习,直接从单幅图像中学习物体的三维结构. Hoang等[11]提出将卷积神经网络(convolutional neural network, CNN)和最先进的密集同步定位和映射(simultaneous localization and mapping, SLAM)系统相结合,以实现高质量的三维重建.

如果视角数量不足或视角分布不均匀,多视角立体视觉(multi-view stereo)的重建精度会受到影响. 基于深度学习的方法需要大量标注数据集进行训练,数据获取和标注成本高,模型可能对训练集外的场景或物体表现较差,难以推广至不同类型的物体. 基于点云的方法生成的点云可能较为稀疏,无法很好地描述物体的细节.

根据上述方法存在的问题,本研究提出基于几何拓扑的汽车视角识别及三维线框模型的重建方法,该方法能够在短时间内准确高效地识别汽车角度并建立三维线框模型,能够较好地克服基于深度学习、点云的方法存在的重建成本高、训练时间长以及细节表现差的问题. 通过与传统方法进行对比,验证所提方法的有效性.

1. 汽车3D线框模型库的建立

1.1. 线框模型的建立

NURBS曲线通过改变控制点的位置就能改变曲线的形状,因此被广泛用于汽车造型及复杂零件设计中. 特殊的三次Bézier曲线由4个控制点组成,具有C2连续性,满足汽车造型的要求. 线框模型易于修改,使得设计师能够迅速调整车身线条、腰线、窗线等关键造型元素,以达到最佳的视觉效果. 最初汽车三维线框模型的建立是利用Catia软件,依据汽车设计图的前、后、侧、顶四视图对应关系,生成共计14款不同车型的3D线框模型,其中每个模型均由70条三次Bézier曲线组成[12]. 由70条线构成的三维线框模版如图1所示,其中线条上的S*代表线条的标号.

图 1

图 1   三维线框模版

Fig.1   3D wireframe template


1.2. 模型库的扩充

考虑模型的一致性,对构建的模型进行归一化,以前轮为基点对所有模型进行旋转、平移和缩放,校正后模型的前轮中心到后轮中心的距离为1000 mm. 初始化的模型库记为矩阵$ {\boldsymbol{S}} = [{\boldsymbol{s}}_1^{\mathrm{T}},{\boldsymbol{s}}_2^{\mathrm{T}}, {\boldsymbol{s}}_3^{\mathrm{T}}, \cdots ,{\boldsymbol{s}}_{14}^{\mathrm{T}}] $,其中si = $ [X_1^i,Y_1^i,Z_1^i,X_2^i, Y_2^i,Z_2^i, \cdots , X_n^i,Y_n^i, $$ Z_n^i] $,(i=1, 2, ···, 14,n=70×4=280)为归一化模型的形状向量. 归一化的14个模型的三维绘制结果如图2所示,其中不同颜色代表不同模型.

图 2

图 2   三维线框模型库

Fig.2   3D wireframe model library


每种车型都有其特定的设计参数,汽车车身尺寸因车型和用途而异,但是通常都有车身高度、轴距、轮距、前悬以及后悬等几个常见的尺寸参数[13]. 汽车模型的缩放比例依据主要有市场需求与用户偏好、功能需求、美学与比例、工程与安全性以及仿真与优化[14]. 在不同市场定位下,车辆尺寸有一定差异,为了覆盖尽可能多的车型,扩充为一个较为完整的模型库,对车身高度、轴距、轮距、前悬以及后悬等部位进行了一定程度的缩放. 在本研究中,扩充线框模型库的具体方法如下:1)缩放每个模型的高度. 将z轴值高于中心点(S34与S45交点) 的关键点分别乘以0.7、0.8、0.9、1.1、1.2,缩放后纳入模型库,将模型库中车型数量扩充到84个;2)进一步将y轴值小于前悬垂后点(S20与S21交点)的关键点分别乘以0.8、0.9、1.1,将y轴值大于后悬垂前点(S11与S12交点)的关键点分别乘以0.8、0.9、1.1,缩放后纳入模型数据库,将模型库中车型数量扩充到588个;3)最后将所有关键点的x轴值分别乘以0.7、0.8、0.9、1.1、1.2,缩放后纳入模型库,将模型库中车型数量扩充到3 528个. 具体扩充方法及数据归纳如表1所示. 扩展后模型库重新记为$ {\boldsymbol{S}} = [{\boldsymbol{s}}_1^{\mathrm{T}},{\boldsymbol{s}}_2^{\mathrm{T}},{\boldsymbol{s}}_3^{\mathrm{T}}, \cdots ,{\boldsymbol{s}}_{3\;528}^{\mathrm{T}}] $.

表 1   模型库扩充的相关数据

Tab.1  Related data of model library expansion

扩充次数扩充方法初始数目最终数目
1z轴方向缩放1484
2y轴方向缩放84588
3x轴方向缩放5883 528

新窗口打开| 下载CSV


2. 基于几何拓扑的汽车视角识别

2.1. 模板关键点定义

关键点数目的选取关系到后续模型重建的精度. 关键点数目过多会造成运算复杂,而关键点过少则导致关键信息丢失,导致后续重建精度过低[15]. 关键点应均匀分布在车身上,以确保模型重建时能捕捉到足够的细节. 选择这些点的理论依据包括特征的显著性、几何特征分析、关键点的分布均匀性等. 基于以上原则在三维模板上选取35个关键点,位置主要分布在前脸、后脸、车顶、车门、车窗、车轮、车尾灯和保险杠. 关键点位置示意图如图3所示.

图 3

图 3   关键点位置示意图

Fig.3   Key point location diagram


2.2. 单视图关键点选取

为了更加方便地进行不同视图关键点的选取,基于Matlab开发了关键点标注系统. 通过手工交互的方式进行关键点的标注及数据记录,所有标注的关键点的数据记录为KeyPs,关键点的序号记为KeyPs_Ns,关键点标注系统界面及运行过程如图4所示.

图 4

图 4   关键点标注界面

Fig.4   Key point annotation interface


2.3. 三维线框模板在不同视角下的投影

车体坐标系的选择对于准确描述车辆姿态和运动至关重要,通过精准地捕捉车辆的旋转情况,可以为角度识别提供可靠的基础[16]. 以侧视图为例,绘制标准车体坐标系示意图,如图5所示. 所建立的线框模型的坐标系以车辆质心为坐标原点,垂直地面向上为z轴,车辆行进方向为y轴,基于右手坐标系确定x轴方向.

图 5

图 5   车体坐标系示意图

Fig.5   Car body coordinate system diagram


在三维坐标系下,坐标系中的三维空间点或物体围绕1个轴或某个点进行旋转,从而得到1个新点或物体[17]. 三维空间的旋转过程可以用来描述物体在三维空间中的姿态变化[18]. 旋转矩阵是描述旋转变换的一种方式. 三维点[xyz]绕坐标轴进行旋转,[αβγ]表示该点分别绕x轴、y轴以及z轴的旋转角度,[x′,y′,z′]表示旋转之后点的坐标信息.

整个车身是对称结构,并且侧视图能够清晰地显示模型的侧面轮廓和结构层次[19]. 因此,本研究设置绕z轴的旋转角度γ为0°~180°. 汽车的俯仰和侧倾角度是衡量汽车稳定性的重要参数,一般车辆在稳态行驶或者静态时,俯仰角和侧倾角会尽量控制得较小[20]. 因此设置绕x轴的旋转角度α为−10°~10°,绕y轴的旋转角度β为−10°~10°,旋转步长均为1°,共计21 901个角度.

记AngleNum为旋转角度个数,Orient Record为所有的旋转角度[αβγ]所组成的矩阵. 旋转矩阵是指在乘以一个向量的时候改变向量大小但不改变向量模大小的矩阵. 表达式如下:

$ \begin{split}\left[ \begin{array}{l}x^{\prime} \\y^{\prime} \\z^{\prime}\end{array} \right] = &\left[ \begin{array}{ccc}\cos \;\gamma & -\sin \;\gamma & 0 \\\sin \;\gamma & \cos \;\gamma & 0 \\0 & 0 & 1\end{array} \right] \left[ \begin{array}{ccc}\cos\; \beta & 0 & \sin\; \beta \\0 & 1 & 0 \\-\sin \;\beta & 0 & \cos\; \beta\end{array} \right] \times \\&\left[ \begin{array}{ccc}1 & 0 & 0 \\0 & \cos \;\alpha & -\sin \;\alpha \\0 & \sin \;\alpha & \cos \;\alpha\end{array} \right] \left[ \begin{array}{l}x \\y \\z\end{array} \right] .\\[-5pt]\end{split} $

模板模型在不同旋转角度下的3D形状展示如图6所示.

图 6

图 6   不同旋转角度下的3D形状展示

Fig.6   3D shape display at different rotation angles


在21 901个不同旋转角度下,对35个关键点沿yz平面进行投影,记PinCameraPs35为35个关键点的投影矩阵.

基于图像中标记的关键点以及所有旋转模型的关键点投影,根据关键点之间的拓扑对应关系即可进行车身的角度识别.

2.4. 基于几何拓扑的角度识别

几何拓扑是空间的形状和结构,可以帮助识别和匹配不同点集之间的形状和结构特征[21]. 通过比较点集之间的拓扑属性,如拓扑维数、同伦性质,可以确定它们之间的相似性,并进行精确的配准[22-23].

基于几何拓扑的角度识别算法是将汽车图像中提取的关键点与不同旋转角度下模板模型的关键点进行配准. 该算法的输入为从汽车图像中提取的关键点KeyPs以及模板对应关键点的所有角度的投影矩阵PinCameraPs_KeyPs,输出为最佳匹配方向optorient,以及匹配过程中计算出的最佳缩放比例optratio. 基于几何拓扑的角度识别算法的关键步骤如下.

1)计算模版中关键点KeyPs_Mod绕z轴旋转180°时车身高度与轴距的比例Ratio_model,其中车身高度以关键点KeyPs5和关键点KeyPs14的z轴差值代替,轴距以关键点KeyPs13和关键点KeyPs14的y轴差值代替,可知Ratio_model为一个单调排列的数组.

2)根据步骤1)中计算输入车身图像中的关键点KeyPs车身高度与轴距的比例Ratio_img,通过与Ratioθ做对比确定汽车绕z轴的旋转角度范围range_z.

3)在确定的绕z轴旋转角度范围内,并绕x轴旋转[−10°,10°]和y轴旋转 [−10°,10°]时关键点KeyPs的投影PinCameraPs _KeyPs,计算KeyPs与KeyPs_Mod之间的缩放比例tempratio,将2组点进行空间上的对应,计算2组点之间的距离平方和. 找出最小平方和optcost所对应的旋转角度optorient,即为匹配得到的最优角度[αβγ].

具体算法流程如算法1所示.

算法1  基于几何拓扑的角度识别算法

输入:汽车图像中提取的关键点KeyPs和模板对应关键点不同角度下的点集PinCameraPs_KeyPs

输出:最佳匹配方向minorient以及最佳缩放比例optratio

Step1:计算车身高度与轴距的比例Ratio_ model以及Ratio_img;

确定绕z轴的旋转角度范围range_z

Step2:计算tmpratio,optcost以及optorient

for k = 1:AngleNum % AngleNum为旋转角度个数;

kPs =PinCameraPs(:,(3k−2:3k)); % 提取对应第 k 组关键点;

计算缩放比例tmpratio,将2组点进行空间上的对应;

计算对应后2组数据之间的距离平方和mincost;

根据距离平方和记录最优对应角度optcost;

通过几何拓扑的角度识别算法,能够有效地计算出给定汽车的绕xyz轴的旋转角度αβγ,实现汽车角度的识别.

  if mincost < optcost

    optcost = mincost;

    optratio = tmpratio;

    optorient = k

  end

end

Step3:计算识别角度[αβγ]

  [αβγ]=[OrientRecord(optorient,:)${\text{π}} $×180]

以2幅图像为例进行其对应角度的识别,其中红色点为选取的车身图像上的关键点,如图7所示. 关键点的数目取决于视图中汽车结构的复杂性,不同视角下的汽车视图所选择的关键点数目不同. 在车身上选取关键点时,应优先考虑能够代表车辆显著特征和几何变化的区域,如前脸、后脸、车顶、车门、车窗、车轮、车尾灯和保险杠等. 因此,图7(a)中共选择了17个关键点,即{KeyPsi|i=1,2,3,4,5,12,13,14,15,16,17,18,19,22,23,24,25}及每个关键点的序列号{SKj| j=81,85,1,5,9,45,61,64,93,113,117,124,157,104,116,172,100}. 由于图7(b)包含汽车尾部较多细节,前脸细节较少,图7(b)中共选择了19个关键点{KeyPsi| i=6,7,8,9,10,11,12,13,14,15,16,17,18,19,22,23,24,25,30}及每个关键点的序列号{SKj|j=13,17,20,25,29,37,45,61,64,93,11 3,117,124,157,104,108,172,100,41}.

图 7

图 7   不同视角下的关键点标注结果

Fig.7   Key point labeling results from different perspectives


根据算法1,图7(a)、(b)中2个不同视角车身图像的角度识别结果分别为α=−2°,β=5°,γ=46°以及α=0°,β=−1°,γ=135°.

3. 复杂三维线框模型重建

3.1. 三维线框重建

对于汽车三维线框模型数据库$ \{ {{\boldsymbol{s}}_i}\} _{i = 1}^m $,当m足够大时,以数据库中的所有模型作为基底,结合不同权重系数的线性组合,可得到新的模型. 定义模型贡献系数向量H,其元素Hi表示模型库中第i个线框模型对重构的贡献量,满足系数之和等于1,即$ \sum\nolimits_{i = 1}^m {{H_i} = 1} $.

记图像中关键点个数为N,其对应关键点序号为(SK1,SK2,···,SKN),以及每个模型siN个关键点的三维坐标值向量Ui= [XSK1YSK1ZSK1XSK2YSK2ZSK2,···,XSKNYSKNZSKN]T.

记与x、y、z轴的最优旋转角度为[αβγ]. 按式(1)将Ui所有三维点进行三维旋转后进行yz平面投影,记为Ki. 记侧视图中关键点个数为M,则车身侧视图关键点向量Zt= [XSK1YSK1ZSK1XSK2YSK2ZSK2,···,XSKMYSKMZSKM]T. Z与矩阵元素Ki、模型贡献量系数Hi之间存在函数关系,表达式如下:

$ \boldsymbol{Z}=\sum_{i=1}^m \boldsymbol{K}_i H_i,\quad \sum_{i=1}^m H_i=1,\quad 0 \leqslant H_i \leqslant 1.0 . $

则目标即为最小化代价函数,表达式如下:

$ \min\; \left\|\sum_{i=1}^m\boldsymbol{K}_i H_i-\boldsymbol{Z}\right\|. $

得到H之后,计算新模型,表达式如下:

$ \text { newmodel }=\sum_{i=1}^m \boldsymbol{s}_i H_i . $

重建的三维线框模型newmodel如图8所示.

图 8

图 8   重建三维线框模型

Fig.8   Reconstruction of 3D wireframe models


基于上述理论,根据手工标注的关键点在三维模型中的关联关系,利用带约束的最小二乘法,完成复杂三维线框模型的重建,将手工标注的关键点(见图7)与重建关键点进行比较,如图9所示. 图7(a)的重建结果如图9(a)所示,图7(b)的重建结果如图9(b)所示,其中红色点是手动标注的位置关键点,绿色点是重建的关键点.

图 9

图 9   不同视角下的重建结果

Fig.9   Reconstruction results under different perspectives


图7对应重建模型在图像中的绘制结果如图10所示.

图 10

图 10   重建线框模型在图像中的绘制结果

Fig.10   Plotting results of reconstructed wireframe model in image


手工重建汽车三维线框模型的时间会根据多种因素而变化,包括建模者的经验、汽车模型的复杂度、所需精细度以及每天投入的工作时间. 一个专业的汽车建模工程师绘制三维线框模型需要约3~4 h. 相比之下,本研究算法凭借自动化和高效的数据处理能力,能在短时间内完成汽车三维线框模型的重建. 其中,关键点标注阶段用时30~40 s,重建三维线框阶段用时3~4 s,全过程用时33~44 s.

3.2. 误差分析

本研究方法与文献[24]中方法的重建误差对比分析结果如图11所示. 从误差分析结果可以看出,基于本研究的方法,图7(a)的关键点误差s小于25 mm,图7(b)的关键点误差s小于17 mm. 与文献[24]相比,本研究重建方法显著提高了重建精度.

图 11

图 11   本研究方法与文献[24]方法的重建误差对比

Fig.11   Comparison of reconstruction error between proposed approach and approach in reference [24]


4. 模型泛化

本研究所提方法对于不同车型具有泛化性,通过分析车型特征确定关键点,更新模板对应关键点的所有角度的投影矩阵,并基于带约束的最小二乘法,可实现视角识别与三维线框模型重建.

4.1. SUV车型

通过建立SUV模型库并对模型库进行扩充,将目标视图的车身关键点与三维模型库中不同视角下的投影点集进行匹配,识别汽车角度. 根据关键点在三维模型中的关联关系,利用带约束的最小二乘法完成三维线框模型的重建. SUV模型库的三维绘制结果如图12所示,对应重建模型在图像中的绘制结果如图13所示.

图 12

图 12   模型库中不同SUV模型展示

Fig.12   Showcase of different SUV models in model library


图 13

图 13   重建线框模型在图像中的绘制结果

Fig.13   Plotting results of reconstructed wireframe model in image


根据算法1,图13中车身图像的角度识别结果分别为α=3°,β=2°,γ=60°. 图13的重建模型误差结果如图14所示,关键点误差s小于32 mm.

图 14

图 14   SUV车型关键点重建误差

Fig.14   SUV model key points reconstruction error


4.2. MPV车型

基于相同的方法完成MPV车型的视角识别与三维线框模型重建. 如图15所示为SUV模型的三维绘制结果,重建模型在图像中的绘制结果如图16所示.

图 15

图 15   模型库中不同MPV模型展示

Fig.15   Showcase of different MPV models in model library


图 16

图 16   重建线框模型在图像中的绘制结果

Fig.16   Plotting results of reconstructed wireframe model in image


根据算法1,图16中车身图像的角度识别结果分别为α=0°,β=2°,γ=30°. 图16的重建模型误差结果如图17所示,关键点误差s小于16 mm.

图 17

图 17   MPV车型关键点重建误差

Fig.17   Key point reconstruction error of MVP model


5. 结 语

提出基于几何拓扑的复杂三维线框模型的重建方法,其能够准确高效地识别汽车角度并建立三维线框模型,展现了良好的重建效果. 绘制汽车线框模型并对模型进行不同位置及程度的缩放,得到扩充的三维模型,建立汽车三维线框模型库. 通过对目标视图中的可视关键点进行标注,并与模版模型在不同旋转角度下的关键点在投影平面上的对应点进行匹配,基于几何拓扑实现任意汽车视图角度的识别. 根据二维关键点与三维模型之间的映像关系,利用带约束的最小二乘法,完成汽车三维线框模型的重建. 不同视角下的关键点重建误差表明,基于几何拓扑的复杂三维线框模型重建能够实现更高的重建效率和精度.

汽车的视角识别以及重建精度受关键点的选择和模型库的数量影响. 选择更合适的关键点和更丰富的模型库可以显著提高结果的准确性. 因此,今后工作重点如下:1)通过深入研究不同模型的设计特点,更准确地确定关键点,从而提高汽车视角识别以及重建的准确性和质量. 2)建立规模更大的模型库,提高训练精度. 扩展模型库的规模以提供更多样化的训练数据,从而增强其泛化能力和准确性,以更好地满足实际应用的需求. 3)在已经建立的三维线框模型的基础上,进一步探索汽车曲面的三维重建技术. 通过这种方法,不仅能够捕捉到汽车的轮廓,还能精细地复原其表面曲线,从而实现更加真实和完整的汽车三维模型.

参考文献

周超, 潘铎

现代汽车造型分析与设计

[J]. 时代汽车, 2022, (4): 124- 125

DOI:10.3969/j.issn.1672-9668.2022.04.053      [本文引用: 1]

ZHOU Chao, PAN Duo

Analysis and design of modern automobile styling

[J]. Auto Time, 2022, (4): 124- 125

DOI:10.3969/j.issn.1672-9668.2022.04.053      [本文引用: 1]

苏佳幸, 李伽熙, 李睿思, 等

基于文本数据的汽车造型需求分析

[J]. 时代汽车, 2023, (21): 150- 153

DOI:10.3969/j.issn.1672-9668.2023.21.050      [本文引用: 1]

SU Jiaxing, LI Jiaxi, LI Ruisi, et al

Analysis of the automotive styling demand based on text data

[J]. Auto Time, 2023, (21): 150- 153

DOI:10.3969/j.issn.1672-9668.2023.21.050      [本文引用: 1]

WANG H, YANG J, LIANG W, et al

Deep single-view 3D object reconstruction with visual hull embedding

[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33 (1): 8941- 8948

DOI:10.1609/aaai.v33i01.33018941      [本文引用: 1]

LIU F, LIU X. 2D GANs meet unsupervised single-view 3D reconstruction [C]// European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022: 497–514.

[本文引用: 1]

WALLACE B, HARIHARAN B. Few-shot generalization for single-image 3D reconstruction via priors [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul: IEEE, 2019: 3817−3826.

[本文引用: 1]

KATO H, HARADA T. Learning view priors for single-view 3D reconstruction [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 9770−9779.

[本文引用: 1]

WU J, ZHANG C, ZHANG X, et al. Learning shape priors for single-view 3D completion and reconstruction [C]// European Conference on Computer Vision. Cham: Springer International Publishing, 2018: 673–691.

[本文引用: 1]

XU Q, WANG W, CEYLAN D, et al. DISN: Deep implicit surface network for high-quality single-view 3d reconstru- ction[J]. Advances in neural information processing syste- ms , 2019, 32.

[本文引用: 1]

REDDY N D, VO M, NARASIMHAN S G. CarFusion: combining point tracking and part detection for dynamic 3D reconstruction of vehicles [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 1906–1915.

[本文引用: 1]

TATARCHENKO M, RICHTER S R, RANFTL R, et al. What do single-view 3D reconstruction networks learn? [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 3400-3409.

[本文引用: 1]

HOANG D C, LILIENTHAL A J, STOYANOV T

Object-RPE: dense 3D reconstruction and pose estimation with convolutional neural networks

[J]. Robotics and Autonomous Systems, 2020, 133: 103632

DOI:10.1016/j.robot.2020.103632      [本文引用: 1]

WANG B, WU Q, WANG H, et al

3D surface reconstruction of car body based on any single view

[J]. IEEE Access, 2024, 12: 74903- 74914

DOI:10.1109/ACCESS.2024.3404635      [本文引用: 1]

HOU X, GOU B, CHEN D, et al

A method to assist designers in optimizing the exterior styling of vehicles based on key features

[J]. Expert Systems with Applications, 2024, 254: 124485

DOI:10.1016/j.eswa.2024.124485      [本文引用: 1]

ROBINSON D E. Fashion theory and product design [M]// Fashion marketing. London: Routledge, 2024: 433–450.

[本文引用: 1]

LU C, KONIUSZ P

Detect any keypoints: an efficient light-weight few-shot keypoint detector

[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2024, 38 (4): 3882- 3890

DOI:10.1609/aaai.v38i4.28180      [本文引用: 1]

CAI G, CHEN B M, LEE T H. Coordinate systems and transformations [M]// Unmanned rotorcraft systems. London: Springer London, 2011: 23–34.

[本文引用: 1]

GOSZTOLAI A, GÜNEL S, LOBATO-RÍOS V, et al

LiftPose3D, a deep learning-based approach for transforming two-dimensional to three-dimensional poses in laboratory animals

[J]. Nature Methods, 2021, 18 (8): 975- 981

DOI:10.1038/s41592-021-01226-z      [本文引用: 1]

GAO C, SUN C, SHAN L, et al. Rotate3D: representing relations as rotations in three-dimensional space for knowledge graph embedding [C]// Proceedings of the 29th ACM International Conference on Information and Knowledge Management. [s. l. ]: ACM, 2020: 385−394.

[本文引用: 1]

HUANG Y, ZHENG W, ZHANG Y, et al. Tri-perspective view for vision-based 3D semantic occupancy prediction [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2023: 9223–9232.

[本文引用: 1]

NGUYEN T X, BUI H V

Study of the influence of lateral forces and velocity on the lateral dynamics of automobile

[J]. EUREKA: Physics and Engineering, 2024, (2): 70- 78

[本文引用: 1]

ZHAO R, WANG H, ZHANG C, et al. PointNeuron: 3D neuron reconstruction via geometry and topology learning of point clouds [C]// Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. Waikoloa: IEEE, 2023: 5776–5786.

[本文引用: 1]

WANG Y, WU Y, LI D, et al

Millimeter-wave radar and vision fusion-based semantic simultaneous localization and mapping

[J]. IEEE Antennas and Wireless Propagation Letters, 2024, 23 (11): 3977- 3981

DOI:10.1109/LAWP.2024.3389678      [本文引用: 1]

DI NUCCI D, SIMONI A, TOMEI M, et al. KRONC: keypoint-based robust camera optimization for 3D car reconstruction [C]// European Conference on Computer Vision. Cham: Springer, 2025: 140−157.

[本文引用: 1]

王博, 江祖毅

基于单视图稀疏点的汽车三维模型重建

[J]. 武汉科技大学学报, 2023, 46 (4): 296- 302

DOI:10.3969/j.issn.1674-3644.2023.04.008      [本文引用: 4]

WANG Bo, JIANG Zuyi

Reconstructing 3D automobile model from sparse points on a single view

[J]. Journal of Wuhan University of Science and Technology, 2023, 46 (4): 296- 302

DOI:10.3969/j.issn.1674-3644.2023.04.008      [本文引用: 4]

/