浙江大学学报(理学版), 2023, 50(6): 811-819 doi: 10.3785/j.issn.1008-9497.2023.06.016

第15届全国几何设计与计算学术会议专题

基于图注意力网络的三维网格分割算法

李文婷,,, 吴璐璐, 周杰, 赵勇,,

中国海洋大学 数学科学学院,山东 青岛 266100

A 3D mesh segmentation algorithm based on graph attention network

LI Wenting,,, WU Lulu, ZHOU Jie, ZHAO Yong,,

School of Mathematical Sciences,Ocean University of China,Qingdao 266100,Shandong Province,China

通讯作者: ORCID:https://orcid.org/0000-0002-5617-0004,E-mail:zhaoyong@ouc.edu.cn.

收稿日期: 2023-06-21   修回日期: 2023-07-20   接受日期: 2023-07-28  

基金资助: 山东省自然科学基金资助项目.  ZR2018MF006
浙江大学计算机辅助设计与图形系统全国重点实验室开放课题(A2228)

Received: 2023-06-21   Revised: 2023-07-20   Accepted: 2023-07-28  

作者简介 About authors

李文婷(1999—),ORCID:https://orcid.org/0009-0000-7344-9499,女,硕士研究生,主要从事计算机图形学、深度学习研究,E-mail:lwt991212@163.com. , E-mail:lwt991212@163.com

摘要

针对三维网格模型分割质量提升问题,提出了感知几何的图注意力网络。首先,定义了感知几何的图注意力系数,利用节点之间的边特征扩展由网络学习得到的注意力系数,引入与节点局部几何信息相关的注意力系数,更好地反映节点之间的相似性。然后,通过调整网络架构,将三维网格模型的几何特征与标签信息共同作为图注意力网络的输入,使标签信息参与网络训练和验证,并通过残差形式的线性连接实现网络的更稳定输出。大量实验结果表明,本文算法能够获得精确的分割边界,其在PSB数据集上的分割准确率较现有经典算法提升约2个百分点,也取得了更好的兰德指数。同时,通过消融实验验证了算法的合理性。

关键词: 网格分割 ; 图注意力系数 ; 边特征 ; 局部几何信息 ; 网络架构

Abstract

Improving the segmentation quality of 3D meshes is always an important problem to computer graphics. To handle this problem, this paper proposes a shape-aware graph attention network. The shape-aware graph attention coefficient is defined to better reflect the similarity between nodes, which not only expands the attention coefficient obtained by network learning with the help of edge features between nodes, but also introduces the attention coefficient related to the local shape information of nodes. On the other hand, the network architecture is adjusted by taking both shape features and labels of 3D mesh model as the input of graph attention network, which enables the participation of labels in network training and verification stages. Residual connection is further employed to make the network output more stable. A large number of experiments show that the proposed algorithm can obtain accurate segmentation boundaries. Compared with the existing classical segmentation algorithms on PSB dataset, the proposed algorithm improves 2% in accuracy, and achieves better Rand index. The reasonableness of the algorithm is proved by ablation experiment.

Keywords: mesh segmentation ; graph attention coefficient ; edge feature ; local shape information ; network architecture

PDF (1665KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

李文婷, 吴璐璐, 周杰, 赵勇. 基于图注意力网络的三维网格分割算法. 浙江大学学报(理学版)[J], 2023, 50(6): 811-819 doi:10.3785/j.issn.1008-9497.2023.06.016

LI Wenting, WU Lulu, ZHOU Jie, ZHAO Yong. A 3D mesh segmentation algorithm based on graph attention network. Journal of Zhejiang University(Science Edition)[J], 2023, 50(6): 811-819 doi:10.3785/j.issn.1008-9497.2023.06.016

在计算机图形学和计算机视觉领域,随着三维数据捕获设备的普及和三维建模技术的发展,产生了许多复杂的三维网格模型。三维网格分割就是将网格模型分解成不同的符合视觉感知的语义信息,是三维几何分析的重要内容之一,有助于特征识别、纹理映射、网格变形和动画等。早期方法大多利用模型的几何特征将相似部分合并为一个区域,并对分割边界进行优化。随着机器学习的不断发展,出现了利用神经网络进行网格分割的方法,但三维网格模型分割问题仍存在一些难点。

近年来,随着图注意力网络的发展,利用自注意力层解决了以往图卷积的缺点,能够隐式地为邻域中的不同节点指定不同的权值。本文提出的感知几何图注意力网络,可完成三维网格模型的分割任务。首先,对网格模型进行过分割,得到超面片,并提取超面片的几何特征,作为图注意力网络的输入。然后,在图注意力层中,定义感知几何的图注意力系数,其既包括网络学习得到的注意力系数,也包括体现网格模型局部几何信息的注意力系数。同时,通过调整网络架构,增强了网络的稳定性。最后,在PSB数据集上进行大量分割实验,并与经典算法在分割准确率、兰德指数等定量指标上进行比较。

1 相关工作

最初的分割方法大多基于三维模型的几何信息。SHLAFMAN等1利用迭代的K-Means聚类得到分割结果;LAI等2将随机游走算法运用于网格分割;CHEN等3提供了网格模型分割数据集、人工分割结果及分割基准,有助于网格分割算法的定量与定性比较;LIU等4通过定义凹度将模型分割问题转化为线性规划问题。也有一些通过用户交互提高分割准确率的方法。ZHENG等5允许用户通过绘制笔触进行分割;FAN等6提出了只需划定前景区域的交互式分割方法,提高了效率;ZHENG等7进一步简化了交互方式,并利用定向搜索投票策略,得到了指定点附近的分割边界。近年来,TONG等8通过分析Fiedler向量,先将网格分割问题表述为L0优化问题,再采用由粗到细的方法进行优化。LIN等9提出了一种中轴变换的方法,利用编码几何和结构信息进行分割,在分割质量和分割速度上都有所提升。

随着机器学习的发展,数据驱动逐渐被用于网格分割。KALOGERAKIS等10采用条件随机场对三维网格模型进行分割;BENHABILES等11通过Adaboost分类器得到分割边界;WANG等12对三维模型进行多角度投影,利用投影图像进行标签转化,完成三维模型的分割;XU等13提出了直推式的三维网格分割算法。

之后,随着深度神经网络的发展,XIE等14利用极限学习机进行三维形状分割和标记;KALOGERAKIS等15建立了端到端的分割框架,先对三维模型进行多角度投影,再利用全卷积网络和条件随机场进行分割;KUNDU等16选择三维网格的不同虚拟视图训练二维语义分割模型,将来自多个视图预测的特征融合至三维网格,实现网格模型的语义分割;GUO等17将网格模型的形状特征重组成二维矩阵,利用深度神经网络建立了特征矩阵和模型标签之间的关系,得到每个面片的标签;GEORGE等18将模型特征组合成一维数据,作为网络的输入,避免了数据之间的干扰;GEORGE等19利用深度学习网络和形状选择排序设计了主动学习框架,用于完成大规模数据集的分割任务;LI等20将图transformer方法应用于高分辨率网格的语义分割:先引入一种保持边界的简化方法,以减小数据量,再用基于Ricci流的聚类算法构造层次结构,最后在图transformer中定义跨分辨率的卷积方法。

近年来,越来越多的方法通过直接学习网格模型的特征完成分割任务。HANOCKA等21利用网格边定义了相关的卷积和池化操作,提出了适用于三角网格的卷积神经网络MeshCNN;HUANG等22设计了TextureNet,从与三维网格表面相关的高分辨率信号中提取特征,其关键是利用4-旋转对称场定义曲面上的卷积域;FENG等23设计了能够获取和聚合三维形状中多边形面特征的块结构,解决了网格的复杂性和不规则性问题;HE等24将微分几何与图神经网络相结合,利用方向曲率滤波器学习方向敏感的三维形状特征,定义了深度学习模型CurvaNet;LAHAV等25设计了端到端的学习框架MeshWalker,通过用网格表面的随机游走表示网格,并结合RNN学习得到网格的几何和拓扑特征;HU等26提出了SubdivNet,定义了基于网格面的卷积算子以及池化和上采样操作;QIAO等27实现了基于拉普拉斯谱聚类的多尺度池化操作,并引入了相关性网络对特征进行全局融合,完成网格分割任务;SHARP等28提出用DiffusionNet学习网格模型特征,对网格表面分辨率和采样的变化具有较好的鲁棒性;PÉREZ等29定义了基于网格面和网格顶点的卷积操作,并分别设计了两种网络架构。

2 网格分割算法

文献[30]最先提出了图注意力网络,其核心是注意力机制。在图节点之间定义了自注意力机制,通过网络训练获取注意力系数,用于聚合节点邻域内的特征。图注意力网络增强了图节点特征的表达能力,更适合节点分类,且可以在节点邻域以及节点之间并行计算,操作效率高。

2.1 感知几何的图注意力层

图注意力网络的关键是图注意力层。首先,感知几何的图注意力层,其输入是图结构中节点特征的集合X=x1,,xi,,xN,其中xiRF是第i个节点的特征,N是节点数,F是节点特征的输入维数。其输出是新的节点特征的集合X'=x1',,xi',,xN',其中xi'RF'F'是节点特征的输出维数。

文献[30]仅利用相邻图节点定义注意力机制,训练得到注意力系数。为更充分利用节点信息,体现节点间相邻关系,本文引入了相邻节点之间连边的特征。同时,为便于计算图注意力系数,减少计算量,应尽量保持特征维数一致。因此,将图结构中节点ij之间连边的特征xijE定义为

xijE=xi+xj

即边的两个端点特征之和。这种定义形式包含了节点ij的共同信息,使得在网络训练过程中,更充分地体现节点之间的相互影响。

然后,在节点和边的特征上定义注意力机制aL:RF×RF×RFR,相应的注意力系数为

eijL=aL(xi,xj,xijE)

其中,xixj分别表示节点ij的特征,xijE表示节点ij之间连边的特征。节点jN(i),其中N(i)表示节点i的一阶邻域(包括i)。在注意力机制aL中,注意力系数eijL经网络学习获得,这体现了节点j对节点i的重要性,但是这种注意力机制只能隐式地表达节点ij之间的关系,不能明确地体现网格模型的局部几何信息。

本文引入网格模型的几何信息,对于节点i,在其一阶邻域内定义注意力系数为

eijG=1xi-xj2+ε

其中,2L2范数,ε是很小的正数,常取1.0×10-5eijG采用自定义的形式衡量节点j对节点i的影响程度。节点j和节点i的特征越相似,节点j对节点i的贡献越大。因此,在图局部结构上,eijG可反映节点之间的相互作用,便于节点特征的更新。

受文献[31]的启发,将网络学习得到的注意力系数eijL与体现局部几何信息的注意力系数eijG相结合,定义感知几何的图注意力系数为

eij=eijLη(eijG)

其中,η为sigmoid函数。乘积的形式可使eij对两种注意力系数的变化都比较敏感,能够更精确地体现节点之间的相关性。同时,sigmoid函数使得η(eijG)的值为[0,1],缩小了注意力系数的范围,降低了计算量。

最后,利用softmax函数对eij归一化,得到权重系数

αij=softmax(eij)=exp(eij)kN(i)exp(ekj)

αij[0,1],并满足在节点i的邻域内系数之和为1,保持节点特征稳定。

在实验中,注意力机制aL采用的是单层的前馈神经网络,并应用非线性函数LeakyRelu降低梯度消失的影响。式(5)可改写为

αij=exp(LeakyRelu(eijLη(eijG)[xi||xj||xijE]))kN(i)exp(LeakyRelu(eijLη(eijG)[xi||xj||xijE]))

αij体现了节点ij之间的相似性。利用αij对节点特征进行线性组合,并应用非线性函数,可得每个节点的新特征

xi'=σjN(i)αijxi

其中,σ为softmax函数。图1展示了局部图结构中节点特征xi的聚合更新过程。假定节点i有4个邻域点,其自身及其邻域点的特征经过聚合得到新的节点特征。

图1

图1   局部图结构中节点特征的聚合更新过程

Fig.1   Aggregation of node features in local graph structure


为了稳定注意力的学习过程,通常采用多头注意力学习方式,即将P个相互独立的注意力系数输出特征相连接,得到输出

xi'=||p=1PσjN(i)αijpxi

其中,||表示连接关系,αijp表示由第p个注意力头计算的归一化的注意力系数。

2.2 网络架构

首先,对网格模型进行高效自适应空间剖分32,过分割成一系列超面片。超面片由若干个三角面片组成,通过调整算法参数改变生成的超面片数。图2展示了Armadillo模型的过分割结果,其中不同颜色的区域表示超面片。由于超面片数远远小于三角面片数,因此可以提升后续的分割效率。在实验中,以超面片为基元进行分割的效率较以三角面片为基元的分割效率提升了近10倍,但二者分割质量(准确率和兰德指数)相当。

图2

图2   Armadillo模型的过分割结果

Fig.2   Over-segmentation result of Armadillo


每个超面片用其重心表示,连接相邻超面片的重心,形成一个图结构,从而将网格分割问题转化为图结构中的节点分类问题。图3展示了局部图结构的构建过程。其中,黑色多边形表示超面片,橙色点表示超面片的重心,蓝色的边由超面片的重心连接而成,表示超面片之间的邻接关系。

图3

图3   局部图结构的构建

Fig.3   Graph structure construction in local region


采用法向、高斯曲率33、形状直径函数34、平均测地距离35、保角因子36、热核描述符37等几何特征描述超面片的性质。假定对网格模型过分割生成的超面片数为N,超面片特征的维数为MFi是第i个超面片的特征,则将由所有超面片的特征构成的特征矩阵[F1,F2,,FN]TRN×M作为图注意力网络的输入。

然后,特征矩阵[F1,F2,,FN]T经过线性层和LeakyRelu层得到[F¯1,F¯2,,F¯N]T,使其携带更多信息,提升网络的泛化性。将[F¯1,F¯2,,F¯N]T与超面片的标签[e1,e2,,eN]T相连接,共同作为图注意力层的输入。通过引入标签信息增加特征维数,便于模型标签直接参与网络训练,提升网络性能。

接着,经过3个图注意力层,得到输出Attention([F¯1,F¯2,,F¯N]T||[e1,e2,,eN]T)

以Teddy模型为例,图4展示了图注意力网络的架构。在实际训练中,一般采用one-hot形式的标签与[F¯1,F¯2,,F¯N]T进行连接。在Teddy模型的分割结果中,将模型分成5部分,分别对应标签0,1,2,3,4,标签的one-hot形式分别为[1,0,0,0,0][0,1,0,0,0][0,0,1,0,0][0,0,0,1,0][0,0,0,0,1]

图4

图4   图注意力网络架构

Fig.4   Architecture of graph attention network


最后,受文献[38]的启发,通过添加残差形式的线性连接,更好地保留原始特征,使数值更稳定。在残差连接之后,为减少过拟合,添加ReLU和Dropout层,获得输出[F˜1,F˜2,,F˜N]。进而,对[F˜1,F˜2,,F˜N]应用softmax和argmax函数,得到超面片对应的one-hot形式的标签,得到超面片的分类结果,实现对网格模型的分割。

此外,在模型训练过程中,采用常见的交叉熵损失函数

L(Y,Y˜)=i=1Nk=1Cykilg(y˜ki)

其中,N为样本总数,C为样本中的网格部分数,Y为所有样本的真实标签,Y˜为所有样本的预测标签,yki为第i个真实标签的第k个分量,y˜ki为第i个预测标签的第k个分量。

3 实验结果与分析

PSB数据集包含Cup、Glasses、Airplane、Ant等不同类别的模型,经人工标记将其分为不同的语义部分。在实验中,每个类别随机选10个模型作为训练集,其余模型作为测试集,并进行交叉验证以提升网络性能。

3.1 视觉结果

图5展示了三维网格分割算法在PSB数据集上的分割结果,可知,9个网格模型均具有真实自然的分割边界。分割算法可精确地对眼镜鼻托和茶壶盖进行分割,对具有较多触角的蚂蚁也能获得符合语义的分割结果。

图5

图5   三维网格分割算法对PSB数据集的分割结果

Fig.5   Segmentation results of 3D meshes for PSB dataset


已有的深度学习方法假设三维网格模型是流形曲面,在网络泛化性方面存在局限性。图6中的网格模型带有高斯噪声,MeshCNN算法21的分割边界很不准确。相比之下,本文算法是基于图结构的,具有一般性,可以鲁棒地处理噪声等情形。

图6

图6   不同算法的分割结果比较

Fig.6   Comparison of segmentation results with different algorithms


在本文算法中,感知几何的图注意力系数eij对于网络训练较为重要。图7比较了网络学习得到的注意力系数eijL和感知几何的图注意力系数eij的分割结果,说明引入局部几何信息可以有效地提升分割质量。

图7

图7   不同注意力系数的分割结果比较

Fig.7   Comparison of segmentation results under different attention coefficients


3.2 定量比较

通过大量实验,定量比较了本文算法与现有经典算法的分割准确率和兰德指数。分割准确率是网格模型中分割正确的面片数与总面片数之比。兰德指数3可衡量一对面片在两个分割结果中属于相同部分的可能性。分割准确率越大,表明模型分割质量越高。兰德指数越小,表明模型分割质量越高。

表1比较了本文算法与Shapeboost10、TOG1517、ShapePFCN15、1DCNN18、DL Framework19等算法对PSB数据集的分割准确率。在多数模型类别上,本文算法获得了较其他算法更高的准确率,平均准确率为95.8%,远超其他5种经典算法的平均准确率。本文算法对Cup的分割准确率高达99.8%,对Glasses、Ant、Chair、Octopus、Table、Teddy的分割准确率超过98.0%。

表1   不同算法的分割准确率比较 (%)

Table 1  Comparison of segmentation accuracy of different algorithm

模型类别Shapeboost10TOG1517ShapePFCN151DCNN18DL Framework19本文算法
平均值93.794.193.793.694.195.8
Human86.891.294.590.690.794.3
Cup94.099.793.894.598.199.8
Glasses96.997.696.696.398.198.6
Airplane96.196.793.095.995.296.9
Ant98.798.898.698.798.899.1
Chair98.198.798.597.797.698.8
Octopus98.298.898.398.598.798.9
Table99.499.699.599.699.099.7
Teddy98.798.297.788.398.698.8
Hand94.488.784.891.788.293.1
Plier95.296.295.595.895.396.0
Fish95.795.696.096.596.496.6
Bird89.688.388.591.088.691.5
Armadillo92.692.392.893.395.095.5
Fourleg83.387.085.087.784.687.9
Vase81.777.886.881.982.987.0

新窗口打开| 下载CSV


表2比较了本文算法与RandCuts39、ShapeDiam34、NormCuts39、RandWalks2、PMC6、WcSeg40算法对PSB数据集分割的兰德指数。在多数模型类别中,本文算法获得了较其他算法更好的分割结果。在Human、Octopus和Armadillo等复杂网格模型中,本文算法的兰德指数更低。本文算法的兰德指数平均值仅为0.081,表明本文算法能够获得更高质量的分割结果。

表2   不同算法的兰德指数比较

Table 2  Comparison of Rand index of different algorithm

模型类别RandCuts39ShapeDiam34NormCuts39RandWalks2PMC6WcSeg40本文算法
平均值0.1650.2330.2480.2810.1550.0850.081
Human0.1650.1550.1560.2420.0590.0840.057
Cup0.0910.3540.4010.3260.0890.1250.076
Glasses0.3220.3220.3450.3070.1240.1670.123
Air-plane0.2250.1920.1900.3630.1080.0700.063
Ant0.1140.1120.1180.1620.0570.0090.115
Chair0.1880.1360.1540.1980.1160.0660.065
Octopus0.4230.3980.4050.4330.0660.0260.023
Table0.4490.2920.3200.2200.0250.0560.032
Teddy0.0730.0890.0750.1440.2940.0400.035
Hand0.1110.1850.1750.1240.2200.1030.134
Plier0.3140.3290.3870.3760.1100.0780.055
Fish0.3030.3170.3540.4840.4710.1440.136
Bird0.3030.2960.3320.4040.2120.0940.092
Arma-dillo0.0780.0970.1020.1050.1950.0760.072
Fourleg0.2820.2190.2100.3290.1750.1390.130

新窗口打开| 下载CSV


3.3 消融实验

通过消融实验定量比较注意力系数eijLeij对分割结果的影响,以进一步证明算法的合理性。在PSB数据集的9个模型类别上进行消融实验,表3为使用网络学习得到的注意力系数eijL和感知几何的图注意力系数eij的分割准确率。对于Chair模型,当注意力系数为eijL时,分割准确率为97.0%;而当注意力系数为eij时,分割准确率为98.8%,提高了1.8个百分点。同时,不同类别模型的分割准确率平均值提升了1个百分点。表明感知几何的图注意力系数eij能够获得更好的分割结果,表达节点局部几何信息的注意力系数eijG对于网络训练是必要的。另外,感知几何的注意力网络能够提升网络的训练性能,提高分割准确率。

表3   不同注意力系数下分割准确率比较

Table 3  Comparison of segmentation accuracy under different attention coefficients

模型类别

网络学习得到的

注意力系数eijL

感知几何的

图注意力系数eij

平均值97.298.2
Human91.594.3
Cup98.999.8
Glasses98.398.6
Ant98.699.1
Chair97.098.8
Octopus98.598.9
Table99.199.7
Teddy97.898.8
Armadillo94.995.5

新窗口打开| 下载CSV


4 结 语

提出了感知几何的图注意力网络,用于处理三维网格的分割问题,极大地提高了分割质量。通过引入边特征,扩展了网络学习得到的注意力系数;同时给出了与节点几何信息相关的注意力系数。将感知几何的图注意力网络与网络学习得到的注意力系数相结合,定义了感知几何的图注意力系数,更好地反映了节点之间的相关性。为改善网络训练性能,将网格模型的几何特征和标签信息共同作为图注意力网络的输入,并通过改进网络架构,使得训练过程更稳定。未来,将进一步扩展至点云场景的语义分割和实例分割。

http://dx.doi.org/10.3785/j.issn.1008-9497.2023.06.016

参考文献

SHLAFMAN STAL AKATZ S.

Metamorphosis of polyhedral surfaces using decomposition

[J]. Computer Graphics Forum, 2002213): 219-228. DOI:10.1111/ 1467-8659.00581

[本文引用: 1]

LAI Y KHU S MMARTIN R Ret al.

Fast mesh segmentation using random walks

[C]// Proceedings of the 2008 ACM Symposium on Solid and Physical Modeling. New YorkACM2008183-191. DOI:10.1145/ 1364901.1364927

[本文引用: 3]

CHEN X BGOLOVINSKIY AFUNKHOUSER T.

A benchmark for 3D mesh segmentation

[J]. ACM Transactions on Graphics, 2009283): 73. DOI:10. 1145/1531326.1531379

[本文引用: 2]

LIU H RLIU W YLATECKI L J.

Convex shape decomposition

[C]// Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition. PiscatawayIEEE201097-104. DOI:10.1109/CVPR.2010. 5540225

[本文引用: 1]

ZHENG Y YTAI C L.

Mesh decomposition with cross-boundary brushes

[J]. Computer Graphics Forum, 2010292): 527-535. DOI:10.1111/j.1467-8659.2009. 01622.x

[本文引用: 1]

FAN L BLIC LLIU K.

Paint mesh cutting

[J]. Computer Graphics Forum, 2011302): 603-612. DOI:10.1111/j.1467-8659.2011.01895.x

[本文引用: 3]

ZHENG Y YTAI C LAU O K.

Dot scissor: A single-click interface for mesh segmentation

[J]. IEEE Transactions on Visualization and Computer Graphics, 2012188): 1304-1312. DOI:10.1109/ TVCG.2011.140

[本文引用: 1]

TONG W HYANG X KPAN M Det al.

Spectral mesh segmentation via L0 gradient minimization

[J]. IEEE Transactions on Visualization and Computer Graphics, 2020264): 1807-1820. DOI:10.1109/TVCG.2018. 2882212

[本文引用: 1]

LIN CLIU L JLI C Jet al.

SEG-MAT: 3D shape segmentation using medial axis transform

[J]. IEEE Transactions on Visualization and Computer Graphics, 2022286): 2430-2444. DOI:10.1109/ TVCG.2020.3032566

[本文引用: 1]

KALOGERAKIS EHERTZMANN ASINGH K.

Learning 3D mesh segmentation and labeling

[J]. ACM Transactions on Graphics, 2010294): No.102. DOI:10. 1145/1778765.1778839

[本文引用: 3]

BENHABILES HLAVOUÉ GVANDEBORRE J Pet al.

Learning boundary edges for 3D-mesh segmentation

[J]. Computer Graphics Forum, 2011308): 2170-2182. DOI:10.1111/j.1467-8659.2011. 01967.x

[本文引用: 1]

WANG Y HGONG M LWANG T Het al.

Projective analysis for 3D shape segmentation

[J]. ACM Transactions on Graphics, 2013326): 192. DOI:10. 1145/2508363.2508393

[本文引用: 1]

XU W WSHI Z XXU M Let al.

Transductive 3D shape segmentation using sparse reconstruction

[J]. Computer Graphics Forum, 2014335): 107-115. DOI:10.1111/cgf. 12436

[本文引用: 1]

XIE Z GXU KLIU L Get al.

3D shape segmentation and labeling via extreme learning machine

[J]. Computer Graphics Forum, 2014335): 85-95. DOI:10.1111/cgf. 12434

[本文引用: 1]

KALOGERAKIS EAVERKIOU MMAJI Set al.

3D shape segmentation with projective convolutional networks

[C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. PiscatawayIEEE20176630-6639. DOI:10. 1109/ CVPR.2017.702

[本文引用: 3]

KUNDU AYIN X QFATHI Aet al.

Virtual multi-view fusion for 3D semantic segmentation

[C]// Proceedings of the 16th European Conference on Computer Vision. BerlinSpringer2020518-535. DOI:10.1007/978-3-030-58586-0\_31. doi:10.1007/978-3-030-58586-0_31

[本文引用: 1]

GUO KZOU D QCHEN X W.

3D mesh labeling via deep convolutional neural networks

[J]. ACM Transactions on Graphics, 2015351): 3. DOI:10.1145/2835487

[本文引用: 3]

GEORGE DXIE X HTAM G K L.

3D mesh segmentation via multi-branch 1D convolutional neural networks

[J]. Graphical Models, 2018961-10. DOI:10.1016/j.gmod. 2018.01.001

[本文引用: 3]

GEORGE DXIE X HLAI Y Ket al.

A deep learning driven active framework for segmentation of large 3D shape collections

[J]. Computer-Aided Design, 2022144103179. DOI:10.1016/j.cad.2021.103179

[本文引用: 3]

LI YHE X YJIANG Y Ket al.

MeshFormer: High-resolution mesh segmentation with graph transformer

[J]. Computer Graphics Forum, 2022417): 38-49. DOI:10.1111/cgf.14655

[本文引用: 1]

HANOCKA RHERTZ AFISH Net al.

MeshCNN: A network with edge

[J]. ACM Transactions on Graphics, 2019384): 90. DOI:10.1145/3306346. 332295

[本文引用: 2]

HUANG J WZHANG H TYI Let al.

TextureNet: Consistent local parametrizations for learning from high-resolution signals on meshes

[C]// Proceedings of the 2019 IEEE Conference on Computer Vision and Pattern Recognition. PiscatawayIEEE20194440-4449. DOI:10.1109/CVPR. 2019.00457

[本文引用: 1]

FENG Y TFENG Y FYOU H Xet al.

MeshNet: Mesh neural network for 3D shape representation

[C]// Proceedings of the 23th AAAI Conference on Artificial Intelligence. Palo AltoAAAI20198279-8286. DOI:10. 1609/aaai.v33i01.33018279

[本文引用: 1]

HE W CJIANG ZZHANG C Met al.

CurvaNet: Geometric deep learning based on directional curvature for 3D shape analysis

[C]// Proceedings of the 26th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. New YorkACM20202214-2224. DOI:10.1145/3394486.3403272

[本文引用: 1]

LAHAV ATAL A.

MeshWalker: Deep mesh understanding by random walks

[J]. ACM Transactions on Graphics, 2020396): 263. DOI:10.1145/3414685. 3417806

[本文引用: 1]

HU S MLIU Z NGUO M Het al.

Subdivision-based mesh convolution networks

[J]. ACM Transactions on Graphics, 2022413): No.25. DOI:10.1145/3506694

[本文引用: 1]

QIAO Y LGAO LYANG Jet al.

Learning on 3D meshes with Laplacian encoding and pooling

[J]. IEEE Transactions on Visualization and Computer Graphics, 2022282): 1317-1327. DOI:10.1109/ TVCG.2020.3014449

[本文引用: 1]

SHARP NATTAIKI SCRANE Ket al.

DiffusionNet: Discretization agnostic learning on surfaces

[J]. ACM Transactions on Graphics, 2022413): No. 27. DOI:10.1145/3507905

[本文引用: 1]

PÉREZ DSHEN Y ZLI J.

Mesh convolutional networks with face and vertex feature operators

[J]. IEEE Transactions on Visualization and Computer Graphics, 2023293): 1678-1690. DOI:10.1109/ TVCG.2021.3129156

[本文引用: 1]

VELICKOVIC PCUCURULL GCASANOVA Aet al.

Graph attention networks

[C]// Proceedings of the 6th International Conference on Learning Representations. VancouverOpen Review20181-12.

[本文引用: 2]

KIM DOH A.

How to find your friendly neighborhood: Graph attention design with self-supervision

[C]// Proceedings of the 9th International Conference on Learning Representations. VancouverOpen Review20211-25.

[本文引用: 1]

WU L LHOU YXU J Let al.

Robust mesh segmentation using feature-aware region fusion

[J]. Sensors, 2023231): No.416. DOI:10.3390/s23010416

[本文引用: 1]

MEYER MDESBRUN MSCHRÖDER Pet al.

Discrete differential-geometry operators for triangulated 2-manifolds

[C]// Proceedings of the 3rd International Workshop “Visualization and Mathematics”. BerlinSpringer200235-57. DOI:10.1007/978-3-662-05105-4\_ 2. doi:10.1007/978-3-662-05105-4_2

[本文引用: 1]

SHAPIRA LSHAMIR ACOHEN-OR D.

Consistent mesh partitioning and skeletonisation using the shape diameter function

[J]. The Visual Computer, 2008244): 249-259. DOI:10.1007/s00371-007-0197-5

[本文引用: 3]

HILAGA MSHINAGAWA YKOMURA T.

Topology matching for fully automatic similarity estimation of 3D shapes

[C]// Proceedings of the 28th Annual Conference on Computer Graphics and Interactive Techniques. New YorkACM2001203-212. DOI:10.1145/383259. 383282

[本文引用: 1]

BENCHEN MGOTSMAN C.

Characterizing shape using conformal factors

[C]// Proceedings of the 1st Eurographics Workshop on 3D Object Retrieval. New YorkACM20081-8. DOI:10.2312/3dor/3dor08/001-008

[本文引用: 1]

SUN JOVSJANIKOV MGUIBAS L.

A concise and provably informative multi-scale signature based on heat diffusion

[J]. Computer Graphics Forum, 2009285): 1383-1392. DOI:10.1111/j.1467-8659.2009. 01515.x

[本文引用: 1]

ZHANG G GMA Q HJIAO L Cet al.

AttAN: Attention adversarial networks for 3D point cloud semantic segmentation

[C]// Proceedings of the 29th International Joint Conference on Artificial Intelligence. San MateoMorgan Kaufmann2020789-796. DOI:10. 24963/ijcai.2020/110

[本文引用: 1]

GOLOVINSKIY AFUNKHOUSER T.

Randomized cuts for 3D mesh analysis

[J]. ACM Transactions on Graphics, 2008275): No.145. DOI:10.1145/1409060. 1409098

[本文引用: 4]

KAICK O VFISH NKLEIMAN Yet al.

Shape segmentation by approximate convexity analysis

[J]. ACM Transactions on Graphics, 2014341): No. 4. DOI:10.1145/261181

[本文引用: 2]

/