浙江大学学报(工学版), 2022, 56(5): 856-863, 889 doi: 10.3785/j.issn.1008-973X.2022.05.002

机械工程

基于迁移学习的机械制图智能评阅方法

高一聪,, 王彦坤, 费少梅, 林琼,

1. 浙江大学 流体动力与机电系统国家重点实验室,浙江 杭州 310027

2. 浙江工业大学 机械工程学院,浙江 杭州 310014

Intelligent proofreading method of engineering drawing based on transfer learning

GAO Yi-cong,, WANG Yan-kun, FEI Shao-mei, LIN Qiong,

1. State Key Laboratory of Fluid Power and Mechatronic Systems, Zhejiang University, Hangzhou 310027, China

2. College of Mechanical Engineering, Zhejiang University of Technology, Hangzhou 310014, China

通讯作者: 林琼,女,讲师. orcid.org/0000-0002-5463-3052. E-mail: waglin@zjut.edu.cn

收稿日期: 2021-06-8  

基金资助: 国家自然科学基金资助项目(51975386);浙江省自然科学基金资助项目(LS18G03006);中国博士后科学基金资助项目(2021M690312);浙江大学本科教学研究项目(zdjg21052);湖州市自然科学基金资助项目(2019YZ09)

Received: 2021-06-8  

Fund supported: 国家自然科学基金资助项目(51975386);浙江省自然科学基金资助项目(LS18G03006);中国博士后科学基金资助项目(2021M690312);浙江大学本科教学研究项目(zdjg21052);湖州市自然科学基金资助项目(2019YZ09)

作者简介 About authors

高一聪(1982—),男,副教授,博士,从事产品正向设计理论与方法,智能结构创新设计研究.orcid.org/0000-0002-1987-0431.E-mail:gaoyicong@zju.edu.cn , E-mail:gaoyicong@zju.edu.cn

摘要

针对机械图样几何特征种类多、线条线型易混淆、人工制图风格多样导致校对效率低、误检、漏检等问题,提出基于迁移学习的机械制图智能评阅方法. 对机械图样进行预处理,采用改进的阀值迭代算法去除背景、噪点和干扰,完成图样图像的分割,提取机械图样的特征投影图像. 通过训练源领域图片的特征提取器,将特征提取器的网络权值迁移到机械图样评阅模型中,完成相似领域的知识迁移. 训练逻辑回归分类器,建立基于神经网络权重参数自适应的智能评阅模型,对几何特征、投影特征、图线、剖面符号等机械图样的制图标准要素进行识别. 实验结果表明,所提出的机械制图智能评阅方法具有较高的错误识别率和鲁棒性能,单个测试样本平均评阅时间为0.95 s,机械图样的平均评阅正确率为98.82%;与人工评阅相比,所提方法能够在提高评阅效率的同时具有较高准确率.

关键词: 智能评阅 ; 仪器制图 ; 迁移学习 ; 机械图样 ; 机器学习

Abstract

There are many problems in mechanical drawings, such as thousands of geometric features, confusing line styles and various manual drawing styles, which lead to low proofreading efficiency, false picking and missing inspection. Aiming at the above problem, an intelligent proofreading method of mechanical drawings based on transfer learning was presented. Firstly, the mechanical drawings were preprocessed, an improved threshold iterative algorithm was used to remove the background, noise and interference, and then the projections of mechanical drawings were obtained by segmentation operations. Secondly, by training the feature extractor of the source domain image, the network weight of the feature extractor was transferred to the mechanical drawing evaluation model and the knowledge transfer of similar domain was completed. Finally, the logistic regression classifier was trained and the intelligent evaluation model was established based on self-adjustment of neural network weight parameter. The standard elements of a mechanical drawing such as geometric feature, projection feature, line and section plane symbols were recognized. Experimental results show that the average proofreading time was 0.95 s, and the average judgement accuracy of engineering drawing was 98.82%. Compared with human proofreading of mechanical drawings, the proposed method has higher efficiency and accuracy.

Keywords: intelligent proofreading ; instrument tool drawing ; transfer learning ; mechanical drawing ; machine learning

PDF (2419KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

高一聪, 王彦坤, 费少梅, 林琼. 基于迁移学习的机械制图智能评阅方法. 浙江大学学报(工学版)[J], 2022, 56(5): 856-863, 889 doi:10.3785/j.issn.1008-973X.2022.05.002

GAO Yi-cong, WANG Yan-kun, FEI Shao-mei, LIN Qiong. Intelligent proofreading method of engineering drawing based on transfer learning. Journal of Zhejiang University(Engineering Science)[J], 2022, 56(5): 856-863, 889 doi:10.3785/j.issn.1008-973X.2022.05.002

机械图样是机械产品的生产依据,标准化制图是保证产品图样正确、完整、统一的重要基础,对产品设计、制造和检验三者之间信息传递有重要意义[1]. 机械制图中字体、线型、可见性、图面布局等问题,导致识图错误,影响产品的生产质量. 机械制图包括手工仪器制图和计算机辅助CAD制图. 虽然计算机辅助CAD制图已经在机械制图过程中广泛应用,但手工仪器制图作为工程技术人员必须要掌握的机械制图的基本技能,是计算机辅助设计的重要基础. 针对机械图样几何特征种类多、线条线型易混淆、人工制图风格多样的特点,传统的人工校阅模式,不但工作强度大,而且校对效率低,存在误检、漏检严重的情况[2].

近年来,基于机器学习的几何特征提取[3-5]与自动评阅技术[6-8]引起了学术界和工业界的广泛关注. 在基于机器学习的几何特征提取技术方面,Delatte等[9]提出基于Crater U-Net新型卷积神经网络方法,用于空间对象的几何特征提取与识别. Jin等[10]提出基于深度神经网络的高分辨率图像中小规模几何特征自动检测方法,通过使用多时间样本提取技术,有效地提高了识别准确率. Palestra等[11]提出基于特征组合的几何特征提取方法,将线性特征、多边形特性、椭圆特征和斜率特征组合作为识别分类特征,使用纹理特征减少了角度、尺度变化的干扰. Zhang等[12]提出新型的深度三维卷积神经网络(there dimension-convolutional neural networks, 3D-CNN)框架,从CAD模型的几何特征中识别出加工特征. Natarajan等[13]将多投票机制应用于卷积神经网络的特征提取模型,有效消除了模型的过拟合. 魏域君[14]提出基于几何特征的影像中心线和边线提取算法,并根据提取的几何特征生成结构拓扑. 韩丽等[15]提出基于联合学习三维模型的几何结构和空间结构感知的特征提取方法,对于复杂拓扑结构、大尺度几何形变的三维形状具有较高稳定性和较高的分类精度. 李军军等[16]提出基于多尺度Gabor变换和感知聚类的自适应局部几何不变特征检测方法. 在基于机器学习的自动评阅技术方面,Song等[17]提出基于网络云架构的长短期记忆卷积神经网络(convolutional neural networks-long short-term memory, CNN-LSTM)网络,对作业进行正误判别. Lin等[18]提出异常视频作业自动检测系统,实现对异常视频作业的自动检测和反馈,提高了作业评分效率. Jing[19]提出基于非负半监督文档聚类的智能评阅方法,设计了针对短答案的自动评分方法,实现了MOOC作业的自动评分. 张旻[20]提出基于卷积神经网络的手绘几何图形识别算法,实现了初中几何主观题中复杂几何图形的高效识别. 李万秋等[21-23]通过将CAD图像预处理成图形数据,实现了自动评阅.

综上所述,图像几何特征提取与自动评阅技术在机械图样评阅的应用还处于起步阶段,现有评阅方法存在几何特征投影误判率高、自动评阅效率低的问题. 为了提高机械图样评阅的准确性和鲁棒性,本研究提出基于迁移学习的机械制图智能评阅方法,通过改进的阈值迭代算法完成图像分割,提取机械制图的特征投影图像. 通过相似领域的知识迁移和逻辑回归分类器训练,建立基于神经网络权重参数自适应的智能评阅模型,对几何特征、投影特征、图线、剖面符号等机械图样制图标准要素进行识别. 最后,通过实验验证本研究所提方法的正确性.

1. 机械图样预处理与特征投影图像获取

1.1. 机械图样的图像预处理

搭建机械图样图像采集装置,使用DSJ-2448P型号工业相机进行图像采集,相机最大分辨率为3264×2448像素,自动对焦,在图片正上方30 cm处拍摄,平台底座背景颜色为黑色,使用LED灯条进行补光处理.

机械制图的评阅须考虑几何特征,对图像的颜色信息不敏感,因此先将图像进行灰度变换得到灰度图像,减少后续操作的计算量. 同时,增强图像的对比度,减少不同颜色线型间的差异,原始图像和灰度处理后的结果如图1(a)、(b)所示. 由于初始图像中包含噪声干扰,如多余笔画、橡皮擦痕迹,须对图像进行平滑滤波处理. 使用高斯滤波进行处理可以有效消除噪声,并保护线条边缘信息,滤波处理后的结果如图1(c)所示. 在拍摄时纸张相对镜头的摆放位置不固定,导致同一图案在图像上的坐标位置不同,须进行图像校正. 使用定位点进行图像校正是最常见的方法,但纸质作业没有定位点,无法采用该方法进行定位. 考虑到机械制图时存在矩形外框,因此可以通过寻找矩形边框的方法实现定位校正. 通过Canny算子[24]进行图像边缘提取,提取出所有的连通域,并舍弃面积小于阈值的区域,剩余区域中面积最小的就是目标区域. 在获得目标区域的角点坐标之后进行仿射变换,完成图像校正,并将目标区域调整为固定大小,保证同一机械图样内得分点目标区域坐标相同. 经过目标区域提取并经过仿射变换处理后的图像如图1(d)所示.

图 1

图 1   机械图样的原始图像与预处理

Fig.1   Original image and preprocessing of mechanical drawings


1.2. 机械图样的特征分割

传统的检测算法能检测出图像中的基本几何图形,如直线、圆,但是对于虚线、单点划线、双点划线等复杂情况,识别效果较差. 机械制图中线条密度大、线型复杂,因此使用传统算法难以有效识别评价. 标准化的机械制图如图2所示. 图中,红色虚线框内为机械图样中各评阅判定得分点. 标准的机械图样通常由多个得分点组成,不同得分点的图元类型也有所不同,准确识别得分点区域内关键图元是否绘制正确.

图 2

图 2   机械制图的评阅标准

Fig.2   Evaluation criteria of mechanical drawing


纸质材料较薄,在获取图像时会不可避免地保留作业背面的信息. 由于纸张两侧图案的亮度具有明显的差异,可以通过阈值分割的方法将正面的图案提取出来. 通过阈值分割将图像二值化处理,不仅能减少拍照时光照不均匀的干扰,去除多余线条,还能减小图片的大小,加速后期的网络训练. 先根据得分点区域坐标将目标分割提取,如图3(a)所示,再调整亮度和对比度,减少补光灯造成的纸张中心区域亮度更高带来的干扰,调整后如图3(b)所示,最后使用最大类间方差法[25]将得分点图像进行二值化处理,得到仅包含目标线条的二值图像,二值化处理后如图3(c)所示.

图 3

图 3   机械图样的特征分割

Fig.3   Feature segmentation of mechanical drawing


2. 基于神经网络权重参数微调的智能评阅

在机械图样的智能评阅初期,须采集一部分样本进行训练,并用训练好的模型预测剩下的样本. 初期的训练样本数量较少,并存在严重的类不平衡,限制了深度学习模型的性能,而重新训练整个网络需要大量的时间资源与计算资源,因此本研究采用迁移学习进行训练,使用少量的训练样本来达到理想的训练效果.

2.1. 机械图样数据增强

机械图样的数据规模越大,智能评阅模型的泛化能力越强. 由于初期样本数量较少,须通过数据增强来扩充机械图样的数据集. 常见的数据增强操作有翻转、裁剪、缩放等,但由于得分点区域的线型、制图特征标准化,特征较为单一,反转和裁剪操作会明显破坏图像的特征. 而缩放操作容易忽略必要特征,破坏线型特征、削弱不同粗细线型之间的判定界限. 因此,针对得分点区域图像的特点,采用小范围的旋转、水平方向和垂直方向微移、加入噪声干扰等数据增强方法. 数据增强算法伪代码如下.

算法1. 图像增强算法

Input:得分点图像 img, 目标数量 total

Output:增强后的图像 imgEnhanced

1. width = img.shape[0] //获得图像宽度

2. height = img.shape[1] //获得图像高度

3. imgEnhanced = Set //增强后的图像集合

4. while len (imgEnhanced) < total do

5. x = random (−width // 30, width // 30)

6. y = random (−height // 30, height // 30)

7. proportion = random (0, 50) / 1000

8. img1 = imgTranslate (img,x, y) //图像微移

9. img2 = imgRotate (img, −5, 5) //图像旋转

10. img3 = imgNoise (img, proportion) //加入噪音

11. imgEnhanced.add (img1, img2, img3)

12. return imgEnhanced

数据增强操作后的样本如图4所示. 通过数据增强方式及其组合,对机械图样的数据集进行扩充. 通过数据增强操作,数据集中的每张图像都生成了大量不同的样本. 数据增强在一定程度上缓解了深度学习训练数据不足的情况. 另外,对扩充后的数据集进行训练降低了网络过拟合的风险,提高了模型的泛化性能,提升了整体性能.

图 4

图 4   数据增强操作后的样本

Fig.4   Example of data enhancement operation


2.2. 基于DenseNet模型的得分点识别

本研究采用121层的DenseNet121模型[26],如图5所示,模型第1层采用7×7卷积,并采取3×3的池化以降低特征维度. DenseNet121模型包含4个密集块,各密集块内部包含由1×1 的卷积和3×3的卷积构成的卷积层,数目依次为6、12、24、16. 在相邻密集块之间,是由1×1 的卷积层和2×2 的池化层构成的转换层. 最后经过全连接层,将得分点分为正确与错误2类,实现得分点的识别. 该网络任意2层之间直接连接,即每一层的输入都是前面所有层输出的总和,而该层所学习的特征图也会被直接作为输入传递给其后面所有层,这种连接结构可以实现特征重用,从而缓解网络层数增多引起的梯度消失的问题,并且每一层只学习非常少的特征图,极大地减少了参数量并提高了学习效率.

图 5

图 5   DenseNet121模型结构图

Fig.5   Structure of DenseNet121 network


将在ImageNet 数据集上训练得到的权重参数作为识别模型的初始化参数,继而在得分点数据集上对模型进行微调,冻结前n层,仅对最后一层的全连接层参数进行训练,在训练时设置学习率为0.001,Epoch=25, 损失函数采用交叉熵损失函数,其损失为

$ H(p,q) = - \sum\limits_{i = 1}^n {p({x_i}){{\log }_2}\;(q({x_i}))} . $
(1)

式中:p为真实结果,q为预测结果.

采用随机梯度下降法对网络参数进行更新:

$ \theta _j' = {\theta _j} + \alpha ({y^i} - {h_\theta }({x^i}))x_j^i. $
(2)

式中:j为网络第j层,θj为更新前的权重参数, $ \theta _j' $为更新后的权重参数,α为学习率,i为每层中的神经元, $y^i、x^i、x_j^i $分别表示神经网络的期望结果、神经网络的输入数据、神经网络第j层的输入数据,hθ为神经网络运算.

3. 实验结果对比与分析

基于迁移学习的机械制图智能评阅方法流程如图6所示. 将本算法用Python编程实现,使用PyTorch深度学习框架搭建机器学习网络,在 Windows10 64 位操作系统,Intel(R) Xeon(R) E5-2630 v4 CPU @ 2.2 GHz 处理器,64 GB RAM,NVIDIA GeForce GTX 1080 Ti×4工作站上训练、运行.

图 6

图 6   基于迁移学习的机械制图智能评阅方法流程图

Fig.6   Flow chart of proposed intelligent proofreading method of engineering drawing based on transfer learning


为了验证所提方法的有效性,对图2中7个得分点进行训练,每组分为80个原始训练集和150个原始训练集,分别选用DenseNet网络(无迁移学习)、VGG [27](使用迁移学习)、ResNet [28](使用迁移学习)和DenseNet(使用迁移学习)网络进行训练. 使用150组训练集对DenseNet网络进行训练,DenseNet网络(无迁移学习)和DenseNet网络(使用迁移学习)的损失值和准确率变化如图7所示. 图中,N为迭代次数,Acc为训练准确率,L为损失值. 经过不断训练,模型准确率逐渐提高,损失值逐渐下降,并逐渐趋于稳定. 除了得分点3外,应用迁移学习在充分训练后都能获得97%以上的准确率. 算法识别结果对比准确率结果如表1所示. 表中,ntra为训练样本数量.

图 7

图 7   使用迁移学习和非迁移学习的损失值和准确率对比

Fig.7   Comparison of loss value and accuracy of transfer learning and non-transfer learning


表 1   4种模型无迁移学习和使用迁移学习的识别结果对比

Tab.1  Comparison of recognition results between non-transfer learning and transfer learning in four models

得分
点编号
ntra Acc/%
DenseNet121
(无迁移
学习)
VGG16
(使用迁
移学习)
ResNet18
(使用迁
移学习)
DenseNet121
(使用迁
移学习)
1 80 81.11 95.56 94.44 94.44
150 88.10 95.56 97.78 97.78
2 80 77.78 90.85 89.63 91.64
150 81.25 97.48 93.71 98.11
3 80 75.00 82.89 76.32 84.21
150 75.68 83.67 86.49 89.19
4 80 94.32 95.45 93.18 97.73
150 95.83 95.83 97.22 98.61
5 80 88.89 95.15 96.12 95.15
150 93.07 97.03 97.03 97.03
6 80 91.21 96.04 94.06 98.90
150 97.80 100.00 100.00 100.00
7 80 82.91 91.45 90.60 94.02
150 84.42 98.29 97.44 97.44

新窗口打开| 下载CSV


训练时准确率无法达到100%,出现误判结果主要是因为绘制规范问题和训练集不平衡. 绘制规范问题主要包括没有按照制图规范使用2B或HB铅笔,导致线条颜色较浅;粗线条和细线条只是颜色深浅不同,没有明显的宽度差异;过多的辅助标记等,对这类问题进行误判难以避免. 当训练集不平衡时识别正确率较差,如表1中得分点3的评阅实验中,不同方向的剖面线训练集数量严重失衡,而且错误样本数量和正确样本数量也存在失衡,不过随着训练集数量的增加,识别准确率有所提高.

表1可知,除了得分点3外,所有使用迁移学习的模型在训练样本充足的情况下都取得了较高的识别准确率. 使用迁移学习,能加快学习效率,获得更高的准确率;在得分点1、3、4中,随着训练集的增加,VGG模型的识别正确率并没有明显提升,原因在于VGG模型存在梯度消失问题,而ResNet和DenseNet通过特征复用缓解了梯度消失问题;ResNet和DenseNet模型的识别准确率较接近,DenseNet略优于ResNet.

为了验证本研究所提方法的效率和准确性,设计对比实验,使用本研究的方法与人工评阅进行比较,进行复杂度依次提高的3组实验,分别为线条补全评阅实验、三视图绘制评阅实验、轴系判改评阅实验,如图8所示,实验设计如表2所示. 表中,ns为得分点数目,ntra为训练样本数量,ntes为测试样本数量.

图 8

图 8   评阅实验缩略图

Fig.8   Thumbnails of review experiments


表 2   自动评阅与人工评阅对比实验设计

Tab.2  Design of contrast experiments of manual proof reading and proposed intelligent method

编号 实验内容 ns ntra ntes
1 线条补齐评阅 5 143 50
2 三视图绘制评阅 7 156 50
3 轴系判改评阅 10 152 50

新窗口打开| 下载CSV


每组实验使用50个全新的样本进行测试,分别统计人工评阅与本研究方法评阅的耗时t与准确率,结果如表3所示. 在线条补齐评阅实验中,50份的测试集,人工评阅时间为224 s,智能评阅时间为35 s,在保持较高正确率的情况下,评阅效率提高85%;在三视图绘制评阅实验中,50份的测试集,人工评阅时间为298 s,智能评阅时间为50 s,评阅效率提高83%;在轴系判改评阅实验中,50份的测试集,人工评阅时间为472 s,智能评阅时间为58 s,评阅效率提高88%. 随着评阅的机械图样的难度增加,人工评阅时间大幅增加,但智能评阅时间仅小幅增加. 因此,智能评阅在保持较高正确率的情况下,评阅效率优势明显. 智能评阅经过人工复核后正确率为98.40%、98.86%、99.20%,与人工评阅正确率接近. 与人工评阅相比,本研究的方法能够在极大地提高评阅效率的同时保留较高准确率.

表 3   自动评阅与人工评阅对比实验结果

Tab.3  Results of manual proofreading and proposed intelligent method

编号 t/s Acc/%
人工 本研究方法 人工 本研究方法
1 224 35 100 98.40
2 298 50 100 98.86
3 472 58 100 99.20
平均值 331.3 47.7 100.0 98.82

新窗口打开| 下载CSV


4. 结 语

针对机械图样智能评阅中图像特征误判率高、自动评阅效率低的问题,提出基于迁移学习的机械制图智能评阅方法,实现了几何特征投影特征、线型等机械图样制图标准要素的精确识别,实验结果表明,该方法是有效的机械制图智能评阅方法,具有较高的评阅正确率和鲁棒性,能有效提高机械制图的评阅效率.

本研究所提出的方法还存在一定的局限性,由于每个得分点都需要单独训练网络,在处理复杂的图像时所需的网络会更多,训练的代价也更大. 下一步将考虑如何训练可以处理同类型问题的通用网络. 另外,也将进一步改进图像预处理的方法,以降低对图像采集条件的要求.

参考文献

谭建荣, 张树有, 陆国栋. 图学基础教程[M]. 北京: 高等教育出版社, 2006.

[本文引用: 1]

费少梅, 陆国栋, 顾大强

时空融合知行耦合的机械大类课程教学新范式探索实践

[J]. 高等工程教育研究, 2017, (6): 76- 80

[本文引用: 1]

FEI Shao-mei, LU Guo-dong, GU Da-qiang

Exploration and practice of a new teaching paradigm of mechanical courses based on the integration of time and space, knowledge and practice

[J]. Research on Higher Engineering Education, 2017, (6): 76- 80

[本文引用: 1]

SANCHEZ J, MONZON N, AGUSTIN S

An analysis and implementation of the Harris corner detector

[J]. Image Processing On Line, 2018, 8: 305- 328

DOI:10.5201/ipol.2018.229      [本文引用: 1]

冯毅雄, 李康杰, 高一聪, 等

面向视觉伺服的工业机器人轮廓曲线角点识别

[J]. 浙江大学学报:工学版, 2020, 54 (8): 6- 13

FENG Yi-xiong, LI Kang-jie, GAO Yi-cong, et al

Corner recognition of industrial robot contour curve for visual servo

[J]. Journal of Zhejiang University: Engineering Science, 2020, 54 (8): 6- 13

冯毅雄, 李康杰, 高一聪, 等

基于特征与形貌重构的轴件表面缺陷检测方法

[J]. 浙江大学学报:工学版, 2020, 54 (3): 427- 434

[本文引用: 1]

FENG Yi-xiong, LI Kang-jie, GAO Yi-cong, et al

The method of surface defect detection of shaft parts based on feature and morphology reconstruction

[J]. Journal of Zhejiang University: Engineering Science, 2020, 54 (3): 427- 434

[本文引用: 1]

KYEONG K, KIM H

Classification of mixed-type defect patterns in wafer bin maps using convolutional neural networks

[J]. IEEE Transactions on Semiconductor Manufacturing, 2018, 31 (3): 395- 402

DOI:10.1109/TSM.2018.2841416      [本文引用: 1]

LEE H, KIM Y, KIM C O

A deep learning model for robust wafer fault monitoring with sensor measurement noise

[J]. IEEE Transactions on Semiconductor Manufacturing, 2017, 30 (2): 23- 31

SUDHA S, VIDHYALAKSHMI M, PAVITHRA K, et al. An automatic classification method for environment: Friendly waste segregation using deep learning [C]// 2016 IEEE Technological Innovations in ICT for Agriculture and Rural Development (TIAR). Chennai: IEEE, 2016: 65-70.

[本文引用: 1]

DELATTE D M, CRITES S T, GUTTENBERG N, et al

Segmentation convolutional neural networks for automatic crater detection on Mars

[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2019, 12 (8): 2944- 2957

DOI:10.1109/JSTARS.2019.2918302      [本文引用: 1]

JIN Y, HE F, LIU S, et al. Small scale crater detection based on deep learning with multi-temporal samples of high-resolution images [C]// 2019 10th International Workshop on the Analysis of Multitemporal Remote Sensing Images. Shanghai: IEEE, 2019: 1-4.

[本文引用: 1]

PALESTRA G, PETTINICCHIO A. Improved performance in facial expression recognition using 32 geometric features [C]∥International Conference on Image Analysis and Processing. Genova: ICIAR, 2015: 518-528.

[本文引用: 1]

ZHANG Z, JAISWAL P, RAI R

FeatureNet: machining feature recognition based on 3D convolution neural network

[J]. Computer-Aided Design, 2018, 101: 12- 22

DOI:10.1016/j.cad.2018.03.006      [本文引用: 1]

NATARAJAN V, HUNG T Y, VAIKUNDAM S, et al. Convolutional networks for voting-based anomaly classification in metal surface inspection [C]// IEEE International Conference on Industrial Technology. Toronto: IEEE, 2017.

[本文引用: 1]

魏域君. 顾及几何与拓扑特征的深度学习遥感影像道路提取[D]. 武汉: 武汉大学, 2020.

[本文引用: 1]

WEI Yu-jun. Road extraction from remote sensed imagery based on deep learning considering geometric and topological properties [D]. Wuhan: Wuhan University, 2020.

[本文引用: 1]

韩丽, 朴京钰, 兰鹏燕, 等

结构感知深度学习的三维形状分类方法

[J]. 计算机辅助设计与图形学学报, 2021, 33 (1): 29- 38

DOI:10.3724/SP.J.1089.2021.18280      [本文引用: 1]

HAN Li, PIAO Jing-yu, LAN Peng-yan, et al

3D shape classification method based on shape-aware deep learning

[J]. Journal of Computer-Aided Design and Computer Graphics, 2021, 33 (1): 29- 38

DOI:10.3724/SP.J.1089.2021.18280      [本文引用: 1]

李军军, 曹建农, 朱莹莹, 等

高分辨率遥感影像建筑区域局部几何特征提取

[J]. 遥感学报, 2020, 24 (3): 233- 244

[本文引用: 1]

LI Jun-jun, CAO Jian-nong, ZHU Ying-ying, et al

Built-up area detection from high resolution remote sensing images using geometric features

[J]. Journal of Remote Sensing, 2020, 24 (3): 233- 244

[本文引用: 1]

SONG R, XIAO Z, LIN J, et al

CIES: cloud-based intelligent evaluation service for video homework using CNN-LSTM network

[J]. Journal of Cloud Computing, 2020, 9 (1): 1- 9

[本文引用: 1]

LIN J, ZHAO Y, LIU C, et al

Abnormal video homework automatic detection system

[J]. Journal of Ambient Intelligence and Humanized Computing, 2021, 12 (12): 10529- 10537

DOI:10.1007/s12652-020-02860-9      [本文引用: 1]

JING S, SANTOS O C, BOTICARIO J G, et al. Automatic grading of short answers for MOOC via semi-supervised document clustering [C]// International Conference on Educational Data Mining. Madrid: EDM, 2015: 554-555.

[本文引用: 1]

张旻. 智能图像识别在初中几何自动阅卷中的应用研究[D]. 北京: 北京工业大学, 2019.

[本文引用: 1]

ZHANG Min. Research of application for intelligent image recognition in junior high school geometry automatic marking[D]. Beijing: Beijing University of Technology, 2019.

[本文引用: 1]

李万秋. 机械基础类客观题及图形改判题阅卷系统的关键技术研究[D]. 广州: 华南理工大学, 2019.

[本文引用: 1]

LI Wan-qiu. Study on key techniques of marking system for objective questions and figure correction questions in basic mechanical courses[D]. Guangzhou: South China University of Technology, 2019.

[本文引用: 1]

沈银燕. 基于网络的建筑CAD考试系统的设计与实现[D]. 杭州: 浙江工业大学, 2009.

SHEN Yin-yan. The design and implementation of the examination system of architectural CAD based on web [D]. Hangzhou: Zhejiang University of Technology, 2009.

易琳. CAD教学中考试及自动评卷系统的研究[D]. 成都: 电子科技大学, 2007.

[本文引用: 1]

YI Lin. The research on the system of examination and automatic marking in cad teaching [D]. Chengdu: University of Electronic Science and Technology of China, 2007.

[本文引用: 1]

CANNY J

A computational approach to edge detection

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8 (6): 679- 698

[本文引用: 1]

OTSU N

A threshold selection method from gray-level histograms

[J]. IEEE Transactions on Systems Man and Cybernetics, 2007, 9 (1): 62- 66

[本文引用: 1]

HUANG G, LIU Z, VAN D M, et al. Densely connected convolutional networks [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017: 4700-4708.

[本文引用: 1]

SIMONYAN K, ZISSERMAN A

Very deep convolutional networks for large-scale image recognition

[J]. Computer Science, 2014, 34 (2): 1409- 1422

[本文引用: 1]

HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: [s. n.], 2016: 770-778.

[本文引用: 1]

/