浙江大学学报(工学版), 2025, 59(10): 2056-2066 doi: 10.3785/j.issn.1008-973X.2025.10.006

机械工程

多源数据混合驱动的铣削刀具磨损状态动态评价方法

毛建威,, 周迪, 庄笑, 孙维方,

温州大学 机电工程学院,浙江 温州,325035

Dynamic evaluation method for milling tool wear state using multi-source data hybrid drive

MAO Jianwei,, ZHOU Di, ZHUANG Xiao, SUN Weifang,

College of Mechanical and Electrical Engineering, Wenzhou University, Wenzhou 325035, China

通讯作者: 孙维方,男,副教授. orcid.org/0000-0002-4181-1606. E-mail:swf@wzu.edu.cn

收稿日期: 2024-09-28  

基金资助: 国家自然科学基金资助项目(52205122).

Received: 2024-09-28  

Fund supported: 国家自然科学基金资助项目(52205122).

作者简介 About authors

毛建威(1998—),男,硕士生,从事加工过程状态监测研究.orcid.org/0009-0000-5792-0906.E-mail:1171367413@qq.com , E-mail:1171367413@qq.com

摘要

动态环境变化会影响铣削过程中加工刀具服役状态的评估,为此提出融合直接与间接测量的刀具磨损评价方法. 将周期性刀具端部图像与实时声音数据融合,结合直接测量的高精度与间接测量的连续性特点,实现所提方法对加工过程中刀具磨损状态的鲁棒评价. 为了提升评价效果,构建多尺度网络模型,通过在不同尺度上捕获磨损特征并深度融合多源信息来增强模型的特征提取能力. 不同加工参数下的铣削实验结果表明,较之对比模型(SPPNet、ASPP、U-Net),所提方法能够有效追踪关键特征变化且评估准确性高. 在4组铣削实验中,所提方法的平均绝对误差均值为0.05124、均方根误差均值为0.06273、决定系数均值为0.94508;该方法的刀具服役状态评价误差低,动态追踪能力强.

关键词: 刀具图像 ; 声音信号 ; 刀具磨损 ; 动态评价 ; 铣削

Abstract

In order to address the problem that dynamic environmental changes affect the evaluation of cutting tools’ service state during milling, a tool wear evaluation method integrating direct and indirect measurements was proposed. Periodic tool end images were fused with real-time sound data, and the high precision of direct measurement and continuity of indirect measurement were combined to realize robust evaluation of the tool wear state during machining. To improve the evaluation effect, a multi-scale network model was constructed. Wear features at different scales were captured, and multi-source information was deeply fused to enhance the model’s feature extraction capability. Results of milling experiments under different machining parameters show that the proposed method can effectively track feature changes in key features and achieves higher accuracy than comparative models (SPPNet, ASPP, U-Net). In four groups of milling experiments, the proposed method exhibited mean values of 0.05124 for mean absolute error, 0.06273 for root mean square error, and 0.94508 for coefficient of determination. The method showed low evaluation error for the tool service condition and strong dynamic tracking capability.

Keywords: tool image ; acoustic signal ; tool wear ; dynamic evaluation ; milling

PDF (4007KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

毛建威, 周迪, 庄笑, 孙维方. 多源数据混合驱动的铣削刀具磨损状态动态评价方法. 浙江大学学报(工学版)[J], 2025, 59(10): 2056-2066 doi:10.3785/j.issn.1008-973X.2025.10.006

MAO Jianwei, ZHOU Di, ZHUANG Xiao, SUN Weifang. Dynamic evaluation method for milling tool wear state using multi-source data hybrid drive. Journal of Zhejiang University(Engineering Science)[J], 2025, 59(10): 2056-2066 doi:10.3785/j.issn.1008-973X.2025.10.006

数控加工机床加工高效、可靠且工序集中,是机械制造系统中的主要制造设备[1]. 刀具作为机床的执行末端,与工件接触并切削工件表面,在切削环境中承受着各种载荷(机械应力、热应力、冲击和振动). 复杂载荷冲击会加速刀具磨损,影响加工表面质量,增加零件使役性能劣化甚至整体报废的风险[2].

刀具工作状态的精准评估对保障切削性能、提高生产效率有重要作用[3]. 刀具磨损状态评价常用的测量方法分为2个类别:直接测量和间接测量[4]. 直接测量法是指采用光学设备和机器视觉技术直接测量刀具,通过检测刀具几何尺寸或表面纹理的变化来判断刀具当前状态[5]. 传统计算机视觉作为常用的直接测量方法,主要依赖于手工设计的特征提取和传统的机器学习分类器进行图像处理和对象识别[6-7]. 随着识别任务的日益复杂化,传统计算机视觉方法难以满足实时性要求[8]. 与传统方法相比,深度学习引入端到端学习的概念,能够自动从大量训练样本中学习特征,数据处理和特征识别能力得到提升[9-10]. Wang等[11]利用深度学习网络Faster R-CNN模型实现磨损定位和机制识别. 间接测量法主要是通过分析与刀具磨损相关的在线测量信号(切削力、声发射、振动、主轴电流和声压等)来评估刀具磨损状态[12]. 这类方法比直接测量方法的成本低,对实际加工的适应性更强. 振动信号是刀具磨损评价常用的传感手段. 史丽晨等[13]提出基于振动信号的刀具磨损预测方法,通过DRSN-BiLSTM模型显著提高了预测精度. 在信号处理中,预测精度受噪声影响,为了提高有用信息的特征提取,研究学者尝试将信号特征转换为二维图像. 滕瑞等[14]提出基于格拉姆角场编码技术(Gramian angular field,GAF)和卷积神经网络的刀具磨损值在线监测方法,有效提高了监测精度和泛化性能.

在实际应用中,单一数据源难以全面捕捉刀具磨损的复杂特征. 图像数据能够直接反映刀具的磨损形态,但在实际加工过程中难以连续采集. 为了获得清晰、准确的磨损特征,图像拍摄通常在暂停加工或减速状态下进行,导致预测过程不连续和信息缺失,从而影响磨损评估的实时性和精确性[15]. 间接测量法能够在加工过程中提供与刀具磨损相关的动态交互信息,捕捉磨损状态的连续变化. 缺点是须预先建立信号与磨损状态之间的映射关系,且灵敏度易受到传递路径和测量点位置的影响[16]. 本研究1)提出融合直接测量和间接测量的刀具磨损评价方法. 在信号的连续监测过程中,结合历史时刻采集的刀具图像数据,以弥补单一数据源在特征捕捉上的局限性. 信号的动态监测提供连续的磨损变化信息,图像数据提供形态特征,两者结合使模型表征磨损状态的能力得到提升. 融合每次加工结束时更新的刀具图像数据,对信号监测结果进行校准,实现“准实时”的磨损状态评价. 2)构建多尺度深度融合网络模型(multi-scale deep integration, MSDI)以提升刀具磨损评估方法的评估准确性. 利用马尔可夫转移场(Markov transition field, MTF)技术,将一维信号转化为与刀具图像维度相匹配的高维数据,并与刀具图像融合. 通过多尺度深度融合网络模型对图像和信号特征进行深度结合,提升刀具磨损状态的识别精度和泛化能力.

1. 多源异构特征融合策略

1.1. 声音信号数据的高维映射

时间序列数据通过MTF转换为二维图像,以捕捉时间序列中的模式和结构特征. MTF的状态转移矩阵描述时间序列中的状态转换,马尔可夫性质(未来状态仅依赖当前状态)有效揭示时间序列的内在规律. MTF还能保留时间外的信息(不依赖时间先后顺序,但对理解序列特征至关重要的信息),在时间序列分析中有广泛应用[17]. MTF的二维化处理不仅丰富了时间序列的特征表达,还能够有效保留信号在时间维度上的状态转移信息,这些信息与其他图像数据深度融合增强了模型在多源数据融合中的特征学习能力.

为了准确提取信号特征,对原始信号进行归一化处理:

$ {X_{\mathrm{n}}} = \frac{{2(X - {X_{{\mathrm{min}}}})}}{{{X_{{\mathrm{max}}}} - {X_{{\mathrm{min}}}}}} - 1. $

归一化后的信号$X = ({x_1},{x_2}, \cdots ,{x_N})$的每个值被分配到对应的$Q$个分位箱${q_1},{q_2}, \cdots ,{q_Q}$中,每个分位箱表示某个状态${q_j}$$j \in [1,Q]$. 利用一阶马尔可夫链对这些状态建模,构造$Q \times Q$的加权邻接矩阵$ \boldsymbol{W} $

$ {\boldsymbol{W}} = {\left[ {\begin{array}{*{20}{c}} {{\omega _{11}}}&{{\omega _{12}}}& \cdots &{{\omega _{1Q}}} \\ {{\omega _{21}}}&{{\omega _{22}}}& \cdots &{{\omega _{2Q}}} \\ \vdots & \vdots &{}& \vdots \\ {{\omega _{Q1}}}&{{\omega _{Q2}}}& \cdots &{{\omega _{QQ}}} \end{array}} \right]_{Q \times Q}}. $

式中:${\omega _{ij}}$为从分位箱${q_i}$转移到分位箱${q_j}$的频率, 满足$\displaystyle{\sum\limits}_{j = 1}^Q {{\omega _{ij}}} = 1$$1 \leqslant i,j \leqslant Q$. 在实际应用中,MTF计算时间序列中任意2个数据点之间的多跨度转移概率,生成$N \times N$的马尔可夫转移场$ \boldsymbol{M} $

$ {\boldsymbol{M}} = {\left[ {\begin{array}{*{20}{c}} {{P_{ij}}\mid {x_1} \in {q_i},{x_1} \in {q_j}}& \cdots &{{P_{ij}}\mid {x_1} \in {q_i},{x_N} \in {q_j}} \\ {{P_{ij}}\mid {x_2} \in {q_i},{x_1} \in {q_j}}& \cdots &{{P_{ij}}\mid {x_2} \in {q_i},{x_N} \in {q_j}} \\ \vdots &{}& \vdots \\ {{P_{ij}}\mid {x_N} \in {q_i},{x_1} \in {q_j}}& \cdots &{{P_{ij}}\mid {x_N} \in {q_i},{x_N} \in {q_j}} \end{array}} \right]_{N \times N}}. $

式中:${P_{ij}}$为时间步长$k$的数据点${x_k}$所属状态${q_i}$转移到时间步长$l$的数据点${x_l}$所属状态${q_j}$的概率,$1 \leqslant k,l \leqslant N , 1 \leqslant i,j \leqslant Q$. 相较于传统的马尔可夫转移矩阵,MTF不仅包含状态转移的概率信息,还保留了时间依赖性. MTF的转换过程如下:1)对时间序列进行归一化处理;2)将数据分配到相应的分位箱,构建反映状态转移频率的马尔可夫转移矩阵;3)将马尔可夫转移矩阵扩展为马尔可夫转移场,保留时间序列的时序信息和多跨度过渡概率.

1.2. 特征融合

为了解决不同维度(一维信号与二维刀具磨损图像)传感信号特征提取与融合问题,本研究构建如图1所示的MSDI. MSDI采用二维卷积神经网络(2D CNN)处理数据,通过多阶段融合声信号和刀具磨损图片的特征实现深层次的网络融合. MSDI特征提取和融合的关键步骤如下. 1)输入数据通过卷积层${C_1}$${C_2}$初步提取声信号$S$和图像$I$的特征$F_S^{(1)}$$F_I^{(1)}$

图 1

图 1   多尺度深度融合模型的网络结构

Fig.1   Network structure of multi-scale deep integration model


$ F_S^{(1)} = {C_2}({C_1}(S)), $

$ F_I^{(1)} = {C_2}({C_1}(I)). $

2)$F_S^{(1)}$$F_I^{(1)}$经过感受野块(receptive field block, RFB)-卷积块注意力模块(convolutional block attention module, CBAM)(RFB-CBAM)层$R$进行多尺度特征提取,得到更丰富的特征表示$F_S^{(2)}$$F_I^{(2)}$

$ F_S^{(2)} = R\;(F_S^{(1)}), $

$ F_I^{(2)} = R\;(F_I^{(1)}). $

3)将$F_S^{(2)}$$F_I^{(2)}$拼接融合以实现局部特征整合.

$ {F_M} = M(F_S^{(2)},F_I^{(2)}). $

式中:M为对声信号特征和图像特征在通道维度上进行拼接(concat)操作. 4)通过池化层$P$减少特征图${F_M}$的空间尺寸,同时保留重要特征以提高计算效率. 重复以上步骤,直至达到网络预定的深度$D$,实现深层次的特征融合.

$ {F_D} = {P^n}({F_M}),\;n \leqslant D. $

1.3. 感受野块

RFB通过扩展感受野(卷积核感知并提取特征的图像区域大小)增强捕获全局和局部信息的能力,在图像处理中应用广泛. RFB网络借鉴人眼在不同视觉场景下感受野的动态变化,采用不同扩张率的扩张卷积,扩展卷积核的感受范围,减少了最大池化操作导致的特征信息损失. 在如图2所示的RFB网络结构中,1)输入的级联特征图通过1×1卷积进行特征降维,以降低计算复杂度并减少冗余信息;2)网络通过不同尺寸的卷积核(如1×1和3×3非对称卷积)进行特征提取,增强特征表示;3)具有不同扩张率的稀疏卷积模拟多尺度感受野,捕获来自不同范围的特征,丰富特征表达的维度;4)特征图的拼接实现多尺度局部特征的融合.

图 2

图 2   感受野块的网络结构

Fig.2   Network structure of receptive field block


1.4. 卷积块注意力模块

为了提升卷积神经网络在关键区域特征提取中的自适应能力,引入如图3所示的CBAM,它由通道注意力模块(channel attention module, CAM)和空间注意力模块(spatial attention module, SAM)组成. 作为增强特征提取的模块,CBAM自适应地为特征图的每个通道和空间位置赋予权重,关注任务相关的关键信息,提升网络在不同任务中的表现. CAM通过全局平均池化(global average pooling,GAP)和全局最大池化(global max pooling,GMP)生成通道描述向量,再将描述向量输入共享的多层感知机MLP,由激活函数(如ReLU)进行非线性变换,由sigmoid函数生成通道注意力权重,用于对原始特征图的各通道进行加权:

图 3

图 3   卷积块注意力模块

Fig.3   Convolutional block attention module


$ {{\boldsymbol{M}}_{\mathrm{c}}} = \sigma \left( {{\mathrm{MLP}}\left( {{F_{{\text{avg}}}}} \right)+{\mathrm{MLP}}\left( {{F_{{\text{max}}}}} \right)} \right). $

式中:$\sigma $为sigmoid函数;Favg为对特征图进行全局平均池化后的结果;Fmax为对特征图进行全局最大池化后的结果;$ {{\boldsymbol{M}}_{\mathrm{c}}} \in {{\bf{R}}^{1 \times 1 \times C}} $ 为通道注意力权重,用于调整原始特征图$F$中的每个通道. SAM在通道维度上对特征图$F$进行平均池化和最大池化,分别获得空间信息图 $F_{{\mathrm{avg}}}^{\mathrm{s}}$$F_{{\mathrm{max}}}^{\mathrm{s}}$,用于描述每个空间位置的重要性;将这2个特征图级联,通过卷积层生成空间注意力权重,以突出特征图中的重要空间区域,忽略无关区域:

$ {{\boldsymbol{M}}_{\mathrm{s}}} = \sigma \left( {{\mathrm{Conv}}\left( {\left[ {F_{{\mathrm{avg}}}^{\mathrm{s}},F_{\max }^{\mathrm{s}}} \right]} \right)} \right). $

式中:${{\boldsymbol{M}}_{\mathrm{s}}} \in {{\bf{R}}^{H \times W \times 1}}$为空间注意力权重,用于调整特征图$F$中每个空间位置的重要性. CBAM能够全面识别并关注特征图中的关键通道和空间位置,根据输入特征图的全局和局部信息,自适应地调整特征图中每个通道和空间位置的重要性,使模型更好地关注关键特征,忽略无关信息,提高特征提取的整体效果和模型的识别性能.

1.5. 感受野-卷积块注意力模块

为了提升模型对刀具图像和信号特征的提取和感知能力,本研究对RFB的网络结构进行改进. 如图4所示,将RFB的支路从3条扩展到6条,每条支路具有不同的感受野,以便捕捉输入特征图的多样化信息. 改进后的RFB在支路中引入1×1、3×3、5×5、7×1和1×7卷积核的组合,分别用于提取局部特征、不同尺度特征以及水平和垂直方向上的特征. 为了优化模型的参数量和计算成本,使用2个3×3卷积核代替5×5卷积核,使参数数量由25降至18个,计算量降低约28%;将7×7卷积核分解为7×1和1×7卷积核,权重参数数量降至14个,计算量降低约71%. 通过支路的并行设计,模型能够捕捉不同尺度下的特征,并在通道维度上进行拼接,实现多尺度特征的有效融合. 在刀具磨损图像和通过MTF处理后的声信号特征提取过程中,微小的纹理、形状、边缘信息以及时间序列中的状态变化对准确评估刀具磨损程度至关重要. 为了增强模型对这些关键特征的提取能力,在每条网络支路的末端引入CBAM,通过自适应调整特征图的通道和空间权重,使网络聚焦于关键特征区域.

图 4

图 4   改进感受野-卷积块注意力模块的网络结构

Fig.4   Network structure of improved receptive field-convolutional block attention module


2. 基于多尺度深度融合网络的刀具磨损状态评估模型

本研究针对动态铣削过程中刀具磨损鲁棒监测问题提出的刀具磨损模型分为3个部分:信号采集、多尺度特征提取与融合网络层构建、刀具磨损状态的识别与预测,具体步骤如下. 1)采集加工过程中的声信号和刀具图像数据. 使用MTF将声音信号转换为二维图像,设置图像分辨率为224像素×224像素. 2)通过多尺度深层次融合网络对步骤1)获取的多源数据进行特征提取. 3)融合步骤2)中得到的各阶段提取的特征. 4)通过RFB-CBAM网络深入挖掘特征,并将这些特征传递到下一层. RFB-CBAM网络通过不同尺寸的卷积核提取多尺度局部特征,利用CBAM增强特征的表达能力,进行不同卷积分支的特征图拼接,以实现多特征的融合. 5)构建全连接回归网络,对特征与刀具磨损值进行映射并预测刀具磨损值.

3. 铣削实验研究

3.1. 实验装置

开展铣削实验,验证所提方法的有效性. 实验设备为三轴VDL850A立式加工中心(由中国大连机床集团生产),如图5所示. 实验用加工刀具:直径为10 mm、螺旋角为45°的三齿无涂层钨钢端铣刀. 实验工件选用45#钢,尺寸为300 mm×100 mm×80 mm. 如图6所示,使用声音传感器捕捉刀具与工件接触时产生的声音信号;数据采集系统选用亿恒ECON Avant(MI-7016)采集系统,采样频率设为12 kHz. 设置4组实验,铣削参数如表1所示,其中n为主轴转速,ap为切削深度,vf为进给速度,nm为铣削次数. 工件铣削以层为单位进行,每层工件表面铣削5条长槽,铣削路径如图7所示,在完成每层表面铣削加工后使用GP-300C刀具显微镜离线测量立铣刀的磨损值. 每组实验的刀具均从全新状态开始逐层铣削(间歇性停机并取下刀柄,测量刀具磨损状态),其中3组实验刀具铣削10层后停止实验,1组实验刀具铣削11层后停止实验.

图 5

图 5   立式加工中心

Fig.5   Vertical machining center


图 6

图 6   实验测量仪器

Fig.6   Experimental measurement apparatus


图 7

图 7   铣削路径示意图

Fig.7   Schematic diagram of milling path


表 1   铣削参数设置

Tab.1  Milling parameter settings

组别n/(r·min−1ap/mmvf/(mm·min−1nm
123000.650010
224000.550010
325000.540011
423000.640010

新窗口打开| 下载CSV


3.2. 数据集构建和网络训练

收集完成铣削实验的刀具磨损图像共41张. 如图8所示为第3组刀具在完成第1、第6、和第11次铣削工件表面后的磨损情况. 为了准确评估刀具磨损情况,选择三齿中磨损面积的最大值作为刀具磨损的评价指标. 为了降低计算复杂度,对原始图像(分辨率为1980像素×1080像素)进行裁剪,仅保留刀具关键区域,并将图像尺寸调整为224像素×224像素. 为了更准确地评估刀具磨损情况,对图像样本进行扩充. 图像扩充是常见的数据增强技术,它通过对图形进行多种方式的变换来生成更多的训练样本. 本研究采用旋转和对比度调整这2种扩充方法:原始图像每隔18°进行旋转,并随机调整对比度. 每张原始的图像扩充至50张,扩充后共得到2050张图像. 在处理声音信号时,剔除不稳定部分,仅选取稳定过程的信号,采用长度为1000的滑动窗口法扩展样本,利用MTF技术将信号转换为图像.

图 8

图 8   刀具磨损测量示意图

Fig.8   Schematic diagram of tool wear measurement


在模型训练阶段,为了防止欠拟合,选取4把刀具中第3条槽的加工信号数据进行训练和测试. 实验数据包含1640个信号训练样本和410个信号测试样本. 每张刀具磨损图像对应1个特定的磨损状态,经数据扩充后,每个磨损状态生成50张图像. 在数据组合过程中,为了确保声信号和图像的合理匹配关系,在相同磨损状态内进行随机组合,以构建训练样本. 在50张图像中随机选取40张与该状态下的连续声信号段组合生成训练样本,其余10张图像用于测试集. 将Python3.9作为编程语言,在配备NVIDIA GeForce RTX 4090 GPU和AMD 3990X CPU(64核128线程)的硬件环境下进行模型训练. 训练参数设置如下:学习率为0.0003,迭代次数为100,批量大小为32.

3.3. 模型评估

在回归模型的性能评估中,平均绝对误差MAE、均方根误差RMSE和决定系数R2用于衡量模型预测值与实际值之间的差异,评估模型的预测精度与拟合效果.

$ {\text{RMSE}} = \sqrt {\frac{1}{n}\sum\limits_{i = 1}^n {{{({y_i} - {{\hat y}_i})}^2}} } , $

$ {\text{MAE}} = \frac{1}{n}\sum\limits_{i = 1}^n | {y_i} - {\hat y_i}|, $

$ {R^2} = 1 - \left({{\displaystyle\sum\limits_{i = 1}^n {{{({y_i} - {{\hat y}_i})}^2}} }}\Bigg/{{ \displaystyle\sum\limits_{i = 1}^n {{{({y_i} - \bar y)}^2}} }}\right). $

式中:${y_i}$$ \hat y_i $分别为刀具磨损的实际值和预测值,n为数据样本数,$ \bar y $为实际值的均值. 本研究方法在4组铣削实验中的测试结果如图9所示,其中nm为铣削次数,Aw为磨损面积. 可以看出,模型在第1、2组实验中的预测表现优异,R2分别为0.969960.96970,RMSE分别为0.073740.04080,MAE分别为0.064580.03575,拟合精度和预测稳定性较高,能够准确捕捉刀具磨损状态的变化趋势. 模型在第4组实验中的预测表现较好,R2=0.95034、RMSE=0.06288、MAE=0.04918,表明所提方法在不同切削参数条件下具有较强的泛化能力. 模型在第3组实验中的预测精度较低,R2=0.89032、RMSE=0.07352、MAE=0.05545. 尽管整体趋势能够反映实际磨损变化,但在高转速条件下,声音信号波动较大,导致模型在捕捉动态变化特征时表现欠佳,这可能与高速铣削引发的磨损剧烈变化有关.

图 9

图 9   所提刀具磨损状态评估模型在4组铣削实验中的测试结果

Fig.9   Test results of proposed tool wear state evaluation model in four milling experiments


为了验证所提方法在噪声环境下对声音信号转换的适应性,设置信噪比RSN=−5、5、10 dB进行噪声模拟实验. 如图10所示为第3组实验刀具的原始信号及其在不同信噪比条件下的变化情况,对应的MTF转换图像如图11所示. 噪声模拟实验结果如图12所示. 可以看出,所提方法在4组铣削实验中均具有良好的预测性能. 在高信噪比(RSN=10 dB)条件下,各铣削参数下的预测曲线与实际磨损曲线吻合度较高,能够准确捕捉磨损趋势. 随着信噪比降低(RSN=−5、5 dB),噪声水平增大,预测曲线波动性略有提升,但整体趋势依然匹配实际值. 在图12(a)和图12(d)中,即便在RSN=−5 dB的条件下,预测结果依然能够反映磨损趋势. 由图12(b)和图12(c)可以看出,在较低信噪比条件下,模型能够稳定预测磨损状态,误差控制被在合理范围内. 尽管噪声的增加在一定程度上影响了预测精度,但所提方法在4组铣削实验和不同信噪比条件下均保持了较高的预测准确性,展示出在噪声干扰环境下的鲁棒性和适应性.

图 10

图 10   刀具在不同信噪比条件下的声信号图像

Fig.10   Acoustic signal images of tool under different signal-to-noise ratios


图 11

图 11   声信号的马尔可夫转移场转移图像

Fig.11   Markov transition field transformed images of acoustic signals


图 12

图 12   所提刀具磨损状态评估模型在4组铣削实验中的测试结果(不同信噪比条件下)

Fig.12   Test results of proposed tool wear state evaluation model in four milling experiments (under different signal-to-noise ratios)


4. 模型对比实验与性能分析

4.1. 不同组合方式输入对比

为了验证所提模型的性能,对单一传感信号及其组合进行对比分析. 由于本研究模型主要用于二维图像,不适用于一维信号,为了保证实验结果的准确性,对比实验均在以VGG16为主干的深层次融合网络模型中进行. 如图13所示为不同输入方式在刀具磨损预测任务中的实验结果,各输入方式在预测表现上存在差异,单一信号输入的预测表现波动较大. 在图13(c)和图13(d)中,信号输入曲线波动幅度较大. 尽管信号输入在整体趋势上能反映磨损变化,但在局部细节上误差较大,尤其是在图13(c)第9次铣削时,预测结果与实际值偏离较明显. 单一图像输入时,预测曲线与实际磨损值的变化趋势较为一致. 图像输入能够较好地捕捉刀具磨损的形态特征,图13(a)和图13(d)表明,图像输入的预测效果优于信号输入. 图像难以持续跟踪磨损状态,导致在磨损变化较快的区间(如实验2组的第5次铣削后),预测曲线呈现出阶梯式变化,反映了图像输入在时序特征捕捉上的局限性. 从实验结果看,简单的联合输入未能显著提升模型的预测效果. 在图13(a)和图13(d)中,这种联合输入的预测曲线波动较大,与实际值之间的偏差依然存在. 这表明,模型在特征融合过程中未能充分学习并利用信号与图像之间的复杂关联性,导致融合效果不理想. 当采用MTF特征后的信号与图像融合输入时,模型表现得到提升. MTF转换后的输入能够捕捉磨损变化,并显著降低预测误差. 结合如表2所示的量化指标,图13中不同输入方式的可视化差异进一步得到验证:单一信号输入的R20.67865~0.75630)均为同组最低,MAE(0.09094~0.14655)与RMSE(0.11671~0.21005)均为同组最高;单一图像输入与图像与信号联合输入的指标介于中间,且联合输入未优于单一图像(如实验3组联合输入R2=0.79980低于单一图像R2=0.84253);而图像与MTF融合输入的R20.87486~0.93446)均为同组最高,MAE(0.05186~0.09674)与 RMSE(0.06776~0.10927)均为同组最低. 实验结果表明,MTF特征保留了信号中的时序信息,并通过二维化转换与图像特征实现深度融合,增强了模型对复杂磨损状态的特征提取和预测能力. 相较于其他输入方式,MTF特征与图像融合的方法表现出更好的预测精度和稳定性,验证了所提方法的有效性.

图 13

图 13   所提刀具磨损状态评估模型在4组铣削实验中的测试结果(不同输入方式条件下)

Fig.13   Test results of proposed tool wear state evaluation model in four milling experiments (under different inputs)


表 2   所提刀具磨损状态评估模型在4组铣削实验中的评估指标(不同输入方式条件下)

Tab.2  Evaluation metrics of proposed tool wear state evaluation model in four milling experiments (under different inputs)

输入实验1组实验2组实验3组实验4组
MAERMSER2MAERMSER2MAERMSER2MAERMSER2
信号0.146550.210050.756300.100640.116710.752430.090940.125850.678650.142170.157230.68958
图像0.094620.123960.915110.071300.077820.889920.058900.088090.842530.080070.092690.89210
图像+信号0.140990.184760.811440.083810.096810.829650.072430.099330.799800.073000.102920.86697
图像+MTF0.096740.109270.934040.051860.067760.916540.052920.078530.874860.063340.072240.93446

新窗口打开| 下载CSV


4.2. 不同网络对比

选取SPPNet、ASPP和U-Net等经典模型与RFB-CBAM进行性能对比分析,设置输入数据均为刀具图像与MTF转换后的声信号图像. 如图14表3所示,不同模型在预测精度和稳定性方面存在差异. 整体来看,SPPNet和ASPP的预测效果相对较差,SPPNet在4组实验中MAE为0.06735~0.11693,RMSE波动范围为0.09512~0.14599R2最低为0.80006(实验3组);ASPP的MAE最高为0.12731(实验1组),RMSE 最大值为0.15274(实验1组),R2在实验2组中低至0.77142. 在图14(b)和图14(c)中,SPPNet和ASPP的预测曲线波动较大,与实际磨损趋势存在明显偏差. U-Net的整体预测表现较为稳定,预测曲线与实际磨损值接近;在磨损变化较快的区间,预测曲线偏离实际值较为明显. U-Net的MAE=0.06559~0.11495,RMSE范围为0.08787~0.14109R2均超过0.84. RFB-CBAM在所有实验编号中均展现出稳定的性能优势,预测曲线与实际磨损趋势高度吻合,特别是在图14(a)和图14(d)中,预测效果优于其他模型. 这表明,RFB-CBAM通过并行多分支结构与注意力机制的结合,有效增强了模型对多尺度特征的综合提取能力,能够捕捉复杂磨损状态下的细节变化和全局趋势.

图 14

图 14   不同评估模型在4组铣削实验中的测试结果

Fig.14   Test results of different evaluation models in four milling experiments


表 3   不同评估模型在4组铣削实验中的评估指标

Tab.3  Evaluation metrics of different evaluation models in four milling experiments

模型实验1组实验2组实验3组实验4组
MAERMSER2MAERMSER2MAERMSER2MAERMSER2
SPPNet0.116930.145990.882270.079720.095120.835530.067350.099270.800060.082180.119570.82046
ASPP0.127310.152740.871140.091930.112140.771420.058520.073910.889160.079610.107080.85602
U-Net0.114950.141090.890030.074730.090440.851320.069040.087870.843340.065590.098340.87856

新窗口打开| 下载CSV


4.3. 不同信号转换方式对比

对MTF与GAF、递归图(recurrence plot, RP)和连续小波变换(continuous wavelet transform,CWT)等信号转换方式进行性能分析对比. 如图15所示为第3组实验刀具在第1次、第6次和第11次实验中GAF、RP和CWT的时间序列和图像. 从如图16所示的预测曲线能直观看到不同转换方法的拟合差异:GAF和CWT 在磨损变化剧烈的区间(如图16 (b)和图16 (c))预测曲线波动较大,即便是在图16(a)和图16(d)所示的整体及局部稳定变化区间,二者曲线也存在小幅波动,拟合一致性较弱. RP的预测曲线在图16(a)和图16(d)中整体平滑,但在局部变化迅速的时刻略显滞后,仅在磨损剧烈变化区间的表现比GAF、CWT更平稳. MTF的预测曲线在图16中保持平滑,且始终贴近实际磨损值,无明显波动或滞后. 结合如表4所示的量化指标来看,这种可视化差异进一步得到验证:GAF和CWT的R2均低于MTF,MAE与RMSE也相对更高;RP的MAE和RMSE相对较低,R2接近MTF,说明RP能较好揭示信号中的动态结构,但仍不及 MTF. 总体上,MTF在表4中的R2均超过0.9,且RMSE最低,结合图16的曲线表现可知,MTF能够有效捕捉时间序列中的状态变化,并通过与图像特征的深度融合使模型的时序特征学习能力提升.

图 15

图 15   声信号图像和3种信号转换方式转换的图像

Fig.15   Acoustic signal images and images transformed by three signal conversion methods


图 16

图 16   不同信号转换方式组成模型在4种铣削实验中的测试结果

Fig.16   Test results of models composed of different signal conversion methods in four milling experiments


表 4   不同信号转换方式组成模型在4种铣削实验中的评估指标

Tab.4  Evaluation metrics of models composed of different signal conversion methods in four milling experiments

模型实验1组实验2组实验3组实验4组
MAERMSER2MAERMSER2MAERMSER2MAERMSER2
图像+CWT0.100290.128220.909180.086600.098410.823980.058550.096690.810310.060680.085950.90722
图像+RP0.082320.106280.937600.070470.082180.877240.051650.083680.857910.052190.071420.93594
图像+GAF0.099770.120970.919160.085550.100810.815290.076440.103410.783050.062790.094660.88748

新窗口打开| 下载CSV


5. 结 语

在制造过程中,可靠的刀具磨损监测是降低成本并提高生产效率的关键. 为了实现更准确的刀具磨损状态识别,本研究提出多源异构特征融合方法. 该方法以采集的原始信号和刀具磨损图像为输入,能够准确预测铣刀的磨损情况. 1)通过将一维信号转换为二维数据矩阵,利用MTF技术增强信号的时间维度信息,提升了训练数据的特征表示能力. 相较于传统的一维CNN模型,基于该方法训练的二维CNN模型表现出更好的预测性能. 2)提出刀具磨损图像识别的深度学习模型. 该模型基于RFB结构,通过增加多尺度的卷积核和引入CBAM,提取和关注刀具磨损图像中的重要特征. 由于实验时间和条件的限制,图像样本数量相对不足,本研究未在复杂动态环境(如切削液、切屑、光照变化等)以及突发情况(如崩刃)下进行验证. 未来研究将扩展实验范围,深入探讨方法在不同刀具磨损阶段和复杂工况下的表现.

参考文献

王秋莲, 欧桂雄, 徐雪娇, 等

基于VMD-SSA-LSTM考虑刀具磨损的数控铣床切削功率预测模型研究

[J]. 中国机械工程, 2024, 35 (6): 1052- 1063

[本文引用: 1]

WANG Qiulian, OU Guixiong, XU Xuejiao, et al

Research on CNC milling machine cutting power prediction model considering tool wear based on VMD-SSA-LSTM

[J]. China Mechanical Engineering, 2024, 35 (6): 1052- 1063

[本文引用: 1]

PIMENOV D Y, BUSTILLO A, WOJCIECHOWSKI S, et al

Artificial intelligence systems for tool condition monitoring in machining: analysis and critical review

[J]. Journal of Intelligent Manufacturing, 2023, 34 (5): 2079- 2121

DOI:10.1007/s10845-022-01923-2      [本文引用: 1]

刘献礼, 秦怡源, 岳彩旭, 等

递归特征消除与极端随机树在铣刀磨损监测中的研究

[J]. 机械科学与技术, 2023, 42 (6): 821- 828

[本文引用: 1]

LIU Xianli, QIN Yiyuan, YUE Caixu, et al

Application research on recursive feature elimination and extra trees in milling cutter wear monitoring

[J]. Mechanical Science and Technology for Aerospace Engineering, 2023, 42 (6): 821- 828

[本文引用: 1]

程训, 余建波

基于机器视觉的加工刀具磨损监测方法

[J]. 浙江大学学报: 工学版, 2021, 55 (5): 896- 904

[本文引用: 1]

CHENG Xun, YU Jianbo

Monitoring method for machining tool wear based on machine vision

[J]. Journal of Zhejiang University: Engineering Science, 2021, 55 (5): 896- 904

[本文引用: 1]

LI S, LING Z, ZHU K

Image super resolution by double dictionary learning and its application to tool wear monitoring in micro milling

[J]. Mechanical Systems and Signal Processing, 2024, 206: 110917

DOI:10.1016/j.ymssp.2023.110917      [本文引用: 1]

YU J, CHENG X, LU L, et al

A machine vision method for measurement of machining tool wear

[J]. Measurement, 2021, 182: 109683

DOI:10.1016/j.measurement.2021.109683      [本文引用: 1]

ZHU K, GUO H, LI S, et al

Online tool wear monitoring by super-resolution based machine vision

[J]. Computers in Industry, 2023, 144: 103782

DOI:10.1016/j.compind.2022.103782      [本文引用: 1]

LI W, FU H, HAN Z, et al

Intelligent tool wear prediction based on Informer encoder and stacked bidirectional gated recurrent unit

[J]. Robotics and Computer-Integrated Manufacturing, 2022, 77: 102368

DOI:10.1016/j.rcim.2022.102368      [本文引用: 1]

HU K, JIN J, ZHENG F, et al

Overview of behavior recognition based on deep learning

[J]. Artificial Intelligence Review, 2023, 56 (3): 1833- 1865

DOI:10.1007/s10462-022-10210-8      [本文引用: 1]

刘会永, 张松, 李剑峰, 等

采用改进CNN-BiLSTM模型的刀具磨损状态监测

[J]. 中国机械工程, 2022, 33 (16): 1940- 1947

[本文引用: 1]

LIU Huiyong, ZHANG Song, LI Jianfeng, et al

Tool wear detection based on improved CNN-BiLSTM model

[J]. China Mechanical Engineering, 2022, 33 (16): 1940- 1947

[本文引用: 1]

WANG M, YANG L, ZHAO Z, et al

Intelligent prediction of wear location and mechanism using image identification based on improved Faster R-CNN model

[J]. Tribology International, 2022, 169: 107466

DOI:10.1016/j.triboint.2022.107466      [本文引用: 1]

ZHANG X, YU T, XU P, et al

In-process stochastic tool wear identification and its application to the improved cutting force modeling of micro milling

[J]. Mechanical Systems and Signal Processing, 2022, 164: 108233

DOI:10.1016/j.ymssp.2021.108233      [本文引用: 1]

史丽晨, 史炜椿, 王海涛, 等

基于DRSN-BiLSTM模型的刀具磨损预测方法研究

[J]. 机械工程学报, 2024, 60 (24): 66- 74

[本文引用: 1]

SHI Lichen, SHI Weichun, WANG Haitao, et al

Tool wear prediction based on DRSN-BiLSTM model

[J]. Journal of Mechanical Engineering, 2024, 60 (24): 66- 74

[本文引用: 1]

滕瑞, 黄海松, 杨凯, 等

基于图像编码技术和卷积神经网络的刀具磨损值在线监测方法

[J]. 计算机集成制造系统, 2022, 28 (4): 1042- 1051

[本文引用: 1]

TENG Rui, HUANG Haisong, YANG Kai, et al

On-line monitoring method for tool wear based on image coding technology and convolutional neural network

[J]. Computer Integrated Manufacturing Systems, 2022, 28 (4): 1042- 1051

[本文引用: 1]

朱锟鹏, 黄称意, 李俊

刀具磨损状态的多步向前智能预测

[J]. 计算机集成制造系统, 2024, 30 (9): 3038- 3049

[本文引用: 1]

ZHU Kunpeng, HUANG Chengyi, LI Jun

Multi-step forward intelligent prediction of tool wear condition

[J]. Computer Integrated Manufacturing Systems, 2024, 30 (9): 3038- 3049

[本文引用: 1]

李恒帅, 刘献礼, 岳彩旭, 等

刀具磨损自动识别及检测系统

[J]. 计算机应用, 2021, 41 (Suppl.1): 259- 263

[本文引用: 1]

LI Hengshuai, LIU Xianli, YUE Caixu, et al

Automatic recognition and detection system for cutter wear

[J]. Journal of Computer Applications, 2021, 41 (Suppl.1): 259- 263

[本文引用: 1]

BUGUEÑO M, MOLINA G, MENA F, et al

Harnessing the power of CNNs for unevenly-sampled light-curves using Markov transition field

[J]. Astronomy and Computing, 2021, 35: 100461

DOI:10.1016/j.ascom.2021.100461      [本文引用: 1]

/