浙江大学学报(工学版), 2026, 60(3): 633-642 doi: 10.3785/j.issn.1008-973X.2026.03.019

计算机技术、控制工程

基于时空注意力机制的轻量级脑纹识别算法

方芳,, 严军, 郭红想, 王勇,

中国地质大学(武汉) 机械与电子信息学院,湖北 武汉 430074

Lightweight brainprint recognition algorithm based on spatio-temporal attention mechanism

FANG Fang,, YAN Jun, GUO Hongxiang, WANG Yong,

College of Mechanical Engineering and Electronic Information, China University of Geosciences (Wuhan), Wuhan 430074, China

通讯作者: 王勇,男,教授. orcid.org/0000-0002-0954-2856. E-mail: yongwang_cug@163.com

收稿日期: 2025-04-9  

基金资助: 国家自然科学基金资助项目(61973283).

Received: 2025-04-9  

Fund supported: 国家自然科学基金资助项目(61973283).

作者简介 About authors

方芳(2001—),女,硕士生,从事脑机接口算法的研究.orcid.org/0009-0008-6210-5541.E-mail:2170869118@qq.com , E-mail:2170869118@qq.com

摘要

针对现有脑纹识别方法模型复杂、所需通道数多以及依赖长时间段信号等问题,提出基于时空注意力机制的轻量化卷积神经网络. 引入坐标注意力机制以增强空间特征提取能力,突出关键通道信息. 基于EEGNet网络,使用VOV-GSCSP模块替换EEGNet的第1层卷积,在不明显增加参数量的同时,提升模型对脑电信号的特征表达能力. 融合轻量级时间自注意力模块,在保持模型轻量化的同时,有效捕捉跨时间步的依赖关系,提升时序建模能力,使网络更具判别力. 利用该方法,在109人的PhysioNet数据集和32人的DEAP数据集上进行验证. 与基线EEGNet网络相比,在PhysioNet数据集的8通道条件下,基于运动想象、睁眼和闭眼3种状态的分类准确率分别提高了18.55%、23.61%、25.79%,在DEAP数据集5通道条件下的分类准确率提高了2.45%. 提出模型的参数量仅为0.29×106,低于大多数现有的深度模型,且在通道数更低、时间段更短的情况下识别效果更佳,证明了该方法在脑纹识别任务中的有效性和鲁棒性.

关键词: 脑电信号 ; 生物识别 ; 注意力机制 ; 轻量化卷积神经网络

Abstract

A lightweight convolutional neural network based on a spatiotemporal attention mechanism was proposed in order to address the problems of high model complexity, large number of required channels, and reliance on long-duration signals in existing brainprint recognition methods. A coordinate attention mechanism was introduced to enhance spatial feature extraction and highlight key channel information. The VOV-GSCSP module was used to replace the first layer convolution of EEGNet based on the EEGNet network in order to improve the feature expression ability of the model for EEG signals without significantly increasing the number of parameters. The lightweight temporal self-attention module was integrated to effectively capture the dependencies across time steps while keeping the model lightweight to enhance the temporal modeling ability and make the network have more discriminative power. The method was validated on the PhysioNet dataset of 109 people and the DEAP dataset of 32 people. The classification accuracies based on the three states of motor imagery, eyes open and eyes closed were improved by 18.55%, 23.61% and 25.79% in the 8-channel condition of the PhysioNet dataset and by 2.45% in the 5-channel condition of the DEAP dataset compared with the baseline EEGNet network. The number of parameters of the proposed model was only 0.29×106, which was lower than most of the existing depth models, and the recognition effect was better in the case of lower number of channels and shorter time period. The effectiveness and robustness of the method in the brain pattern recognition task were demonstrated.

Keywords: electroencephalographic signal ; biometrics ; attention mechanism ; lightweight convolutional neural network

PDF (813KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

方芳, 严军, 郭红想, 王勇. 基于时空注意力机制的轻量级脑纹识别算法. 浙江大学学报(工学版)[J], 2026, 60(3): 633-642 doi:10.3785/j.issn.1008-973X.2026.03.019

FANG Fang, YAN Jun, GUO Hongxiang, WANG Yong. Lightweight brainprint recognition algorithm based on spatio-temporal attention mechanism. Journal of Zhejiang University(Engineering Science)[J], 2026, 60(3): 633-642 doi:10.3785/j.issn.1008-973X.2026.03.019

生物识别系统已广泛应用于手机解锁、移动支付、安全监控等场景[1]. 目前主流技术如指纹、面部和虹膜识别,虽然便捷且精度较高,但活体检测能力不足,易被伪造,存在安全隐患[2]. 相比之下,脑电信号具有活体采集与不可伪造的特性,正逐步成为身份识别的新方向[3]. 过去十年中,传统机器学习方法如k近邻[4]、朴素贝叶斯[5]和支持向量机[6]等被广泛应用于脑电生物特征研究. 这些方法依赖人工预处理与特征提取[7],不仅增加工作负担,而且限制模型泛化性能.

近年来,深度学习模型逐渐应用于EEG生物识别研究. 学者们为了提升识别率,采用更复杂的模型. Sun等[8]结合卷积神经网络(CNN)和长短时记忆网络(LSTM),在Physionet数据集上的准确率大于98%,但模型参数量超过5.05亿. Schons等[9]采用滑动窗口数据增强和CNN相结合,在相同数据集上实现 0.19%的等错误率(EER),但参数量超过7 800万. 这类方法虽然识别性能优异,但因参数庞大,难以实际部署.

部分算法致力于降低参数量,但通常需要更多的通道数或更长的时间段. Wang等[10]在 Physionet数据集上采用相位锁定值和图卷积网络(GCN),在64通道、5.5 s时间段的条件下准确率超过98%,但在通道减少时性能显著下降. Fraschini等[11]通过构建功能连通性脑网络进行身份识别,在睁眼静息态12 s的EEG数据上实现了96.9%的识别准确率,但该方法依赖较长时间段的脑电信号. Kumar等[12]在Physionet数据集静息态数据中采用基于锁相值的SVM方法,在21通道下的准确率为96%. Tian等[13]在同一数据集上应用基于GCN的方法,使用1 s时间段、16通道数据的识别准确率为53.41%. Myung等[14]通过经验模态分解和频谱图提取特征,结合CNN在8通道静息态数据中达到75.7%的准确率.

针对上述挑战,本文提出基于时空注意力的轻量级卷积神经网络,旨在以更少通道和更短时间实现高效的脑纹识别. 模型通过引入坐标注意力机制,强化关键通道与空间特征信息提取. 采用VOV-GSCSP模块替换EEGNet中的常规卷积,增强空间特征表示. 嵌入轻量级时间自注意力模块,在保持参数轻量的前提下提升时序建模能力. 本文方法在2个公开数据集上得到验证,均取得了良好的识别性能. 在Physionet数据集中,运动想象状态数据使用4 s时间段、8通道,准确率达到98.34%;睁眼和闭眼状态数据使用2 s时间段、8通道,准确率分别达到96.47%和96.74%. 在DEAP数据集中,仅使用5通道,即可实现99.98%的准确率.

1. 算法实现

提出优化的轻量级卷积神经网络架构,旨在高效地提取脑电信号中的判别特征. 如图1所示为该网络的整体结构框架. 对原始脑电信号实施带通滤波和归一化的预处理步骤,以有效提升信号的质量. 引入坐标注意力机制(coordinate attention,CA),为脑电信号的不同通道赋予相应的权重,从而精准地提取关键通道信息,增强空间特征提取能力. 采用经过改良的VEEGNet网络进行进一步特征提取,具体而言,采用VOV-GSCSP结构替换EEGNet原本的第1层普通卷积层,在不大幅增加参数量的前提下,增强模型对空间信息的学习能力. 为了进一步强化对时序信息的建模能力,在网络中融入轻量级时间自注意力(lightweight temporal self-attention,LTAE)模块. 该模块能够进一步优化对脑电信号时间动态特征的捕获. 将所有特征展平,送入全连接层进行分类. 该架构在保持轻量化的同时,显著提升了脑电信号的判别性能.

图 1

图 1   网络整体架构

Fig.1   Overall network architecture


1.1. 坐标注意力

在多通道脑电信号处理领域,不同通道对识别任务的重要性存在显著差异,故而合理分配各通道的权重显得尤为关键. 引入CA模块[15],该模块不仅能够增强空间特征的建模能力,而且能够为不同通道赋予恰当的权重,从而有效地提取关键通道信息,进而提升脑电信号的判别性能. CA模块算法的实现结构如图2所示.

图 2

图 2   坐标注意力结构

Fig.2   Structure of coordinate attention


对于输入xR1×T(其中C为脑电信号通道数,T为采样点数),采用尺寸为(1,1)和(1,T)的池化核,分别沿着水平方向和竖直方向对每个通道进行编码处理. 将前述模块生成的2个特征图进行级联,并通过一个共享的1×1卷积层F1进行变换,得到中间特征图x1,可以表述为

$ {\boldsymbol{x}}_{1}=\mathrm{\delta }\left({{F}}_{1}\left(\left[{\boldsymbol{Z}}^{\mathrm{u}},{\boldsymbol{Z}}^{\mathrm{v}}\right]\right)\right) . $

式中:x1R(C/r)×1×(1+T),其中r为下采样比例,用以调控模块的整体尺寸,r = max {8, C//8}.

沿着空间维度将x1拆分为2个独立的张量${\boldsymbol{f}}^{\mathrm{u}} $R(C/r)×1×1${\boldsymbol{f}}^{\mathrm{v}} $R(C/r)×1×T,利用2个1×1卷积FuFv,分别将特征图f uf v变换至与输入x相同的通道数,得到

$ {\boldsymbol{g}}^{\mathrm{u}}=\mathrm{\delta }\left({{F}}_{\mathrm{u}}\left({\boldsymbol{f}}^{\mathrm{u}}\right)\right) , $

$ {\boldsymbol{g}}^{\mathrm{v}}=\delta \left({{F}}_{\mathrm{v}}\left({\boldsymbol{f}}^{\mathrm{v}}\right)\right) . $

将得到的gugv作为通道注意力因子,对输入x进行加权调整,得到x2RC×1×T,使网络在水平方向和竖直方向均能关注关键通道信息,如下所示:

$ {{x}}_{2}\left(i,j\right)=x\left(i,j\right) {{g}}^{\mathrm{u}}\left(i\right) {{g}}^{\mathrm{v}}\left(j\right) . $

1.2. VEEGNet

EEGNet[16]是专为脑电信号分类设计的轻量级神经网络,其架构精巧,通常由3层卷积结构构成,依次为二维卷积层、深度卷积层和可分离卷积层. 为了进一步提高模型对脑电信号的空间特征提取能力,将EEGNet中的原始二维卷积层替换为VoV-GSCSP模块[17]. 该模块融合了GSConv和CSP的优势,相较于传统卷积,在特征学习方面展现出更强大的表达能力,同时保持了较高的计算效率,未显著增加计算成本.

VoV-GSCSP模块的具体实现结构如图3所示. 将经过CA模块输出的x2RC×1×T进行维度变换,得到xt1RC×T. xt1先经过二维卷积提取特征,随后进入GS Bottleneck模块. 该模块的核心是GSConv结构,它融合了标准卷积与深度可分离卷积的优点. GSConv通过逐通道卷积与逐空间卷积进行分解计算,不仅降低了计算复杂度,而且能够保持良好的特征提取能力. GS Bottleneck模块提取的特征会与前面二维卷积的特征进行融合,再经过一次二维卷积,得到新的特征xt2Rm×C×T,其中m为最后一层二维卷积的输出通道数.

图 3

图 3   VOV-GSCSP网络的结构

Fig.3   Structure of VOV-GSCSP network


随后,xt2进入深度卷积模块. 在该模块中,每个通道被独立分组,每组输入通道由m个尺寸为(C,1)的卷积核进行卷积,获得m个独立的输出通道,深度卷积后的输出通道总数变为2m. 接下来,进入可分离卷积,具体而言,将上述经过深度卷积后的特征与尺寸为(1,1)的卷积核进行点卷积,用于跨通道的信息融合,这样不仅减少了模型参数,还提高了计算效率. 经过这一系列处理后,得到输出特征xt3R2m×(C/p)×(T/p),其中p为最大池化的核大小,p = 8.

1.3. 轻量级时间自注意力

脑电信号不仅具有空间结构,而且包含重要的时间动态信息,不同时间步对识别任务的贡献不同. 为此,本文引入LTAE模块[18]. 该模块是高效的轻量级时间自注意力机制,旨在对输入数据进行时序建模,以捕捉长距离的时间依赖性,保持轻量化特性.

为了提高计算效率,LTAE将上述VEEGNet的输出数据xt3作为输入,将2m个通道分为H个组,每组的大小为C'=2m/HH设为8. 每个通道组的通道计算过程如下:

$ {{\boldsymbol{c}}}_{h}^{\left(t\right)}={\left[{c}^{\left(t\right)}\left[\left(h-1\right){C}'+i\right]\right]}_{i=1}^{{C}'} . $

式中:ch(t)为第h个头在第t时刻处理的输入通道. 通过这种分组策略,每个注意力头被分配到一个通道组上,减少了每个头计算的维度,同时有效规避了冗余计算.

为了让模型能够理解输入序列的顺序,LTAE引入位置编码. 位置编码使用正弦和余弦函数来表示每个时间步的位置,并将其加到输入信号中. 位置编码p(t)可以表述为

$ {{\boldsymbol{p}}}^{\left(t\right)}={\left[\mathrm{s}\mathrm{i}\mathrm{n}\left(\frac{{\mathrm{slot}}\left(t\right)}{{\tau }^{{i}/{{C}'}}}\right)\right]}_{i=1}^{{C}'} . $

式中:slot(t)为时间段,τ为尺度. 将p(t)加到输入数据ch(t)中,为每个时间步提供位置信息,从而使模型能够捕捉时序依赖关系.

LTAE模块的核心是多头自注意力机制. 与传统自注意力机制不同,LTAE对结构进行了改进. 每个头的查询qh不再通过线性变换生成,而是直接作为模型的可学习参数,在训练过程中更新,以减少模型参数量.

为了提升计算效率,采用共享的线性变换FCh,即使用统一的投影矩阵,将输入数据ch(t)+p(t)投影为维度为H×d的向量,其中d为每个注意力头对应的键的维度,d=16. 每个头的键kh(t)的计算过程如下:

$ {{\boldsymbol{k}}}_{h}^{\left(t\right)}={{\mathrm{FC}}}_{h}\left({{\boldsymbol{c}}}_{h}^{\left(t\right)}+{{\boldsymbol{p}}}^{\left(t\right)}\right) . $

每个头计算基于查询和键之间点积的注意力掩码ah,可以表述为

$ {{\boldsymbol{a}}}_{{h}}={\mathrm{softmax}}\left(\frac{1}{\sqrt{K}}{\left[{{\boldsymbol{q}}}_{h}\cdot {{\boldsymbol{k}}}_{h}^{\left(t\right)}\right]}_{t=1}^{T}\right) . $

注意力掩码ah用于加权输入信号,并生成每个头的输出Oh. 输出是加权求和后的结果:

$ {{\boldsymbol{O}}}_{h}=\sum _{t=1}^{T}{a}_{h}\left[t\right]\left({{\boldsymbol{c}}}_{h}^{\left(t\right)}+{{\boldsymbol{p}}}^{\left(t\right)}\right) . $

每个注意力头的输出Oh被拼接到一起,输出xt4RH×z,其中z为每个注意力头的输出维度. 最后送入全连接层进行分类.

2. 实验简介

2.1. 数据集

目前,脑电领域尚无专门针对脑纹识别的数据集,现有研究大多采用运动想象和情绪相关数据集作为实验数据. 为了验证脑纹识别方法的有效性,受试者数量应尽可能多,以确保模型的泛化能力. Physionet运动想象数据集[19]包含109名受试者,DEAP情感数据集[20]包含32名受试者,均具有较大规模的受试者数量,适用于脑纹识别研究. 选用Physionet数据集和DEAP数据集,评估模型的性能.

Physionet数据集采用国际10-10电极放置系统,包含109名受试者的脑电记录,使用64通道进行采集,采样频率为160 Hz. 每位参与者进行14次脑电测试,如下所示:2次持续1 min的静息态记录(分别为睁眼和闭眼状态),3次持续2 min的任务运行(左拳或右拳开合,双手或双脚开合,任务形式包含运动想象和真实运动),单次任务运行记录持续时间为4 s的脑电信号. 使用静息状态数据(即睁眼和闭眼状态的数据)和运动想象状态数据进行评估,对静息状态和运动想象状态的数据分别进行7~30 Hz和8~35 Hz的带通滤波,数据集在训练前都经过归一化处理.

DEAP数据集采用国际10-20电极放置系统,包含32名受试者的脑电记录,使用32通道进行采集,采样频率为512 Hz. 每位参与者观看40个1 min的音乐视频,这些视频对应不同的情绪状态. 为了进行公平地比较,使用DEAP数据集的官方预处理版本. 预处理数据被降采样到128 Hz,同时使用4~45 Hz带通滤波进行预处理. 数据集在训练前都经过归一化处理.

2.2. 训练参数

使用PyTorch和Python 3.8编译器在GPU RTX3060上进行实验. batch size设置为16. 对每个数据集进行重复40次随机划分,每次随机划分80%训练集、10%验证集和10%测试集. 最大训练轮次设置为100. Adam优化器的学习率是动态调整的,初始值为0.003,每训练10个轮次学习率下降1%. 模型使用交叉熵作为损失函数.

实验使用的评估指标是平均准确率和等错误率(EER),准确率是指模型正确分类的样本数量占总样本数的比例,准确率越高表示模型的预测越准确. EER是指假接受率(FAR)和假拒绝率(FRR)相等时的错误率. FAR是非目标受试者被错误接受的比例,FRR是目标受试者被错误拒绝的比例. EER越低,说明模型的身份验证性能越好. 最终的准确率和EER结果为在完全相同的实验条件下重复40次实验得到的平均准确率和平均等错误率.

3. 实验结果与讨论

3.1. 参数选择与评估

3.1.1. 模型参数选择与评估

通过调整不同的参数,获得本文方法的最佳组合,如表1所示. 其中,ACC为准确率,std为标准差,Physionet-MI表示Physionet数据集的运动想象状态的数据,Physionet-EO表示Physionet数据集静息状态的睁眼数据,Physionet-EC表示Physionet数据集静息状态的闭眼数据. Physionet-MI使用1 s时间段、64通道数据,Physionet-EO和Physionet-EC都使用2 s时间段、64通道. 由于DEAP数据集的数据量较多,对于DEAP数据集,使用10 s时间段、32通道数据. 如表1所示为不同参数对模型性能的影响.

表 1   不同参数对2个数据集的不同状态数据的分类性能影响

Tab.1  Effect of different parameter on classification performance for different state data of two datasets %

实验参数参数选择ACC±std
Physionet-MIPhysionet-EOPhysionet-ECDEAP
卷积核数(16,64)
(64,128)
99.43±0.15
99.97±0.09
98.13±0.17
99.45±0.15
97.32±0.41
99.01±0.30
100.00±0.02
100.00±0.00
激活函数ELU
SiLU
GeLU
ReLU
99.95±0.11
99.96±0.10
99.97±0.10
99.97±0.09
98.64±0.23
98.70±0.21
99.15±0.17
99.45±0.15
98.26±0.39
98.34±0.36
97.35±0.45
99.01±0.30
99.92±0.08
100.00±0.01
100.00±0.00
100.00±0.00
注意力GCT
CA
99.95±0.13
99.97±0.09
99.12±0.16
99.45±0.15
98.34±0.33
99.01±0.30
100.00±0.01
100.00±0.00
池化层AvgPool2d
MaxPool2d
99.97±0.10
99.97±0.09
98.94±0.18
99.45±0.15
98.59±0.33
99.01±0.30
100.00±0.00
100.00±0.00
Dropout0.25
0.5
99.91±0.12
99.97±0.09
99.06±0.16
99.45±0.15
98.77±0.32
99.01±0.30
100.00±0.01
100.00±0.00

新窗口打开| 下载CSV


分析卷积核数对模型性能的影响. 由于VEEGNet第2层和第3层的卷积核数一样,仅对第1层和第2层的卷积核数进行调试. 将这2层的卷积核数分别设置为(16,64)和(64,128)进行对比. 实验结果表明,后者在分类性能上更优,表明适当增加卷积核数有助于提取更丰富的判别特征. 对常用的激活函数进行性能评估,结果显示,ReLU激活函数达到了最佳效果,较ELU、SiLU和GeLU略有改善. 在池化策略方面,对比了最大池化与平均池化的效果. 结果表明,最大池化在特征保留和识别性能方面均优于平均池化,更适合用于脑电信号建模,因此在后续网络中都使用最大池化. 另外,评估2种通道注意力,捕捉通道的重要性. 结果表明,与GCT层相比,CA层的表现更好,测试准确率更高,说明其在提取关键通道特征方面具有更强的能力. 评估Dropout参数大小对模型效果的影响. 可知,当Dropout设为0.5时,模型性能最优. 后续实验都使用上述最佳参数组合.

3.1.2. 数据集参数的选择与评估

针对数据集的测试,以Physionet-MI数据为主进行展开. 如表2所示,对不同时间段及不同通道数N下的分类准确率进行系统测试. 选取的时间段是1 s和4 s. 将通道数设为3、4、8、15、16、19、32、64. 4、16、32和64通道的分组参考文献[8],15通道和19通道的分组参考文献[21]. 3通道配置采用C3、C4和Cz,8通道配置包括F3、F4、C3、Cz、C4、P3、P4和Pz.

表 2   Physionet-MI不同参数下的测试结果

Tab.2  Physionet-MI performance under different setting

slot/sN(ACC±std)/%slot/sN(ACC±std)/%
4389.07±1.401364.57±2.25
4493.54±1.281471.99±1.77
4898.34±0.411891.67±1.31
41599.30±0.2511598.52±0.61
41699.75±0.2211698.63±0.53
41999.81±0.2111998.86±0.32
43299.90±0.2013299.48±0.24
46499.97±0.0216499.97±0.09

新窗口打开| 下载CSV


实验结果表明,时间段的长短对模型识别性能有显著的影响,4 s时间段的平均准确率普遍高于1 s时间段的平均准确率. 在64通道配置下,无论是4 s还是1 s时间段,平均准确率均达到99.97%,这证明在通道数充足的情况下,本文方法即使在较短时间段内也能实现极为优异的分类效果. 此外,在相同时间段内,随着通道数的增加,平均准确率呈现明显上升的趋势. 在4 s时间段、8通道的配置下,准确率可达98.34%. 在1 s时间段、8通道的配置下,准确率能够达到91.67%. 这说明利用本文方法,能够在通道数较少的时候实现很好的识别效果.

为了进一步研究通道数和时间段对脑纹识别性能的影响,采用t-SNE对模型最后一层全连接层中学习到的特征进行可视化. 如图4所示为Physionet-MI数据的前10名受试者的t-SNE可视化图像,其中10种不同的颜色表示不同的类别. 可以看出,在1 s时间段、8通道的配置下,部分类别边界较模糊. 随着时间段的延长,在4 s时间段、8通道的配置下,从网络学习到的类别分界变得更加清晰. 当通道数增加到64时,即使时间段为1 s,模型提取的特征也展现出明确的类别边界,类内聚合效果更明显. 上述结果再次验证了通道数和时间段对脑纹识别有很重要的影响.

图 4

图 4   不同参数下Physionet-MI数据的t-SNE可视化图

Fig.4   t-SNE visualization of Physionet-MI data with different parameter


表3所示为Physionet数据集的静息状态数据和DEAP数据集在不同通道下的测试结果. 其中,Np为参数量. 从表3可以看出,DEAP数据集在仅5通道的情况下,识别准确率就能达到99.98%. 对于Physionet静息状态数据,在2 s时间段、3通道的配置下就能达到90%以上的准确率,且EER保持在较低水平. 上述结果进一步验证了本文方法在通道数较少,时间段较短的情况下,仍能保持良好的分类性能.

表 3   不同数据集在不同参数下的测试准确率

Tab.3  Test accuracy of different dataset with different parameter

数据集slot/sN(ACC±std)/%(EER±std)/%Np/106
Physionet-EO23
8
16
64
90.60±2.50
96.47±1.45
98.70±0.73
99.45±0.15
0.179±0.091
0.014±0.010
0.002±0.008
0.000±0.001
0.29
0.29
0.30
0.33
Physionet-EC23
8
16
64
90.16±2.49
96.74±1.63
97.53±1.06
99.01±0.30
0.137±0.070
0.011±0.010
0.003±0.009
0.000±0.001
0.29
0.29
0.30
0.33
DEAP105
32
99.98±0.06
100.00±0.00
0.000±0.000
0.000±0.000
0.28
0.29

新窗口打开| 下载CSV


3.2. 消融实验

在所提的网络结构中,CA、VOVGSCSP和LTAE模块对EEG信号特征的充分提取起到了至关重要的作用. 为了探究这3个模块对网络性能的具体影响,在2个公开数据集上进行消融实验. 其中Physionet-MI使用4 s时间段、8通道数据,Physionet-EO和Physionet-EC使用2 s时间段、8通道数据,DEAP数据集使用10 s时间段、5通道数据. DEAP数据集5通道配置采用F3、F4、F7、F8、Fz. 将各模块分别加入EEGNet中进行测试. 从表4可知,不同模块的引入对各数据集的分类性能均有不同程度的提升. 其中LTAE模块提升最显著,表明时间依赖关系对EEG特征提取至关重要. 此外,CA模块和VOV-GSCSP模块在DEAP数据集上效果突出,这可能是由于该数据集划分时间段较长,有利于提取更丰富特征. 进一步的模块组合实验表明,各模块不仅单独有效,而且具备显著的协同效应. 当CA、VOVGSCSP和LTAE模块同时移除时,模型的整体性能显著下降. 在Physionet-MI数据集上,模型识别准确率下降18.55%. 在Physionet-EO与Physionet-EC数据集上,模型识别准确率分别下降23.61%和25.79%. 在DEAP数据集上,模型识别准确率下降2.45%. 任意两模块组合均优于单模块,说明三者在通道注意、空间特征增强和时间建模层面均具有互补性.

表 4   消融实验结果的比较

Tab.4  Comparison of result of ablation experiment

模型(ACC±std)/%
Physionet-MIPhysionet-EOPhysionet-ECDEAP
EEGNet79.79±2.4972.86±3.2170.95±3.4597.53±0.25
VEEGNet80.83±2.2174.18±3.0372.66±3.2299.89±0.20
CA+EEGNet81.00±2.0675.53±2.8973.28±2.9599.93±0.17
EEGNet+LTAE96.01±0.8989.28±1.9690.21±2.0199.54±0.18
CA+VEEGNet90.54±1.5280.76±2.4575.37±2.7899.93±0.15
VEEGNet+LTAE98.25±0.4894.85±1.5594.85±1.7299.97±0.08
CA+EEGNet+LTAE98.18±0.5291.63±1.7292.11±1.8999.96±0.09
Proposed98.34±0.4196.47±1.4596.74±1.6399.98±0.06

新窗口打开| 下载CSV


3.3. 算法比较

为了验证所提方法的有效性,将其与主流EEG生物特征识别算法在公共数据集上进行对比.

表5所示为本文方法与当前一些流行算法在Physionet-MI数据上的性能对比.

表 5   Physionet数据集的运动想象数据比较

Tab.5  Comparison of motor imagery data for Physionet dataset

方法slot/sNACC/%EER/%Np/106
COH_CNN[21]
COH_CNN[21]
1
1
19
15
98.22
97.74


CNN-LSTM[8]1
1
16
64
99.58
99.58
0.410
0.410
1927.50
多任务对抗学习[22]16499.20
BGWO-SVM[23]12394.13
EPI-CGAN[24]16499.02
PCA+SVM[25]26499.91
DNN[26]46497.81
GCT-EEGNet[27]13298.900.0040.17
ResNet18[28]16499.5911.25
提出方法
提出方法
提出方法
提出方法
提出方法
1
1
1
1
1
15
16
19
32
64
98.52
98.63
98.86
99.48
99.97
0.001
0.001
0.001
0.001
0.000
0.29
0.29
0.29
0.30
0.32

新窗口打开| 下载CSV


Ashenaei等[21]使用COH提取特征,输入CNN分类,该模型在1 s时间段、19通道和1 s时间段、15通道的配置下,准确率分别达到98.22%和97.74%,本文方法在相同通道下分别提高了0.64%和0.78%. Sun等[8]使用CNN-LSTM模型在64通道的配置下实现了99.58%的高识别准确率,比本文方法在64通道下的识别准确率低0.39%. 虽然文献[8]算法在16通道下的识别准确率略优于本文方法,但其结合了LSTM层,将参数量增加到1927.5 × 106,这增加了过拟合的风险,而本文模型的参数量远远小于该模型,且EER更低. Alyasseri等[23]使用BGWO-SVM在23通道的配置下取得94.13%的准确率,相比之下,本文方法在更少通道数下表现更优. Ortega-Rodríguez等[25]采用主成分分析结合SVM进行脑纹识别,在2 s时间段、64通道的配置下取得了99.91%的准确率. 本文方法仅在1 s时间段便能达到更优的识别效果,显示出更高的效率和实用性. Akbarnia等[26]使用DNN对预处理脑电信号进行脑纹识别,在4 s时间段、64通道的配置下实现97.81%的准确率,明显低于所提方法的识别效果. Alshehri等[27]提出轻量级GCT-EEGNet网络进行脑纹识别,在1 s时间段、32通道的配置下实现98.90%的识别准确率,虽然文献[27]方法采用的参数量仅为0.17×106,但识别性能低于本文方法. Li等[28]构建多视图融合模型,使用ResNet18进行分类,在1 s时间段、64通道的配置下实现99.59%的准确率,参数量为11.25×106. 相比之下,本文模型在参数量远小于文献[28]模型的情况下,识别准确率与其相当. Jin等[24]采用EPI-CGAN模型,该模型在64通道下的准确率达到99.02%. Zhou等[22]将LFCC特征与多任务对抗学习相结合,在64通道下取得99.20%的准确率. 这2种方法使用较多的通道数,且分类效果不及本文所提方法. 通过在Physionet-MI数据上的分类性能比较,验证了本文所提方法即便在参数量较少的情况下,仍能取得较好的分类效果.

表6所示为本文方法与其他方法在Physionet数据集中静息状态数据的分类表现,对于同一数据集,当前主流的算法性能与本文方法的比较如下. Das等[29]使用CNN-LSTM模型进行测试,在4 s、8 s、12 s和16 s的实验中,12 s时段的效果最佳,EO和EC的识别准确率分别为98.00%和99.95%. 本文方法的EC识别准确率略低于文献[29]方法,但本文方法仅用2 s时间段,更适用于实际应用. Tian等[13]应用基于GCN的方法,使用1 s数据,最高准确率达到98.56%,但在通道减少时准确率下降较快. 相比之下,本文方法在低通道数下保持较高的准确率. Schons等[9]结合滑动窗口的数据增强技术和CNN,在最佳情况下EER为0.190%,本文所提方法在64通道下EER更低,使用的时间段更短. Li等[33]提出ESTformer模型进行脑纹识别,在10 s时间段、64通道的条件下实现94.61%的准确率,模型参数量为33.7×106. 相比之下,本文方法的准确率更高,参数量更少. Bandana等[34]提出使用自动编码器对脑电信号进行重建,再使用CNN进行分类,在8 s时间段、64通道的配置下,睁眼和闭眼状态时分别达到99.45%和99.89%的准确率,但文献[34]方法使用的时间段比本文方法长.

表 6   Physionet数据集静息状态数据的比较

Tab.6  Comparison of resting state data for Physionet dataset

方法slot/sNEOECNp/106
ACC/%EER/%ACC/%EER/%
连通性网络[11]126496.904.40092.606.500
CNN-LSTM[29]
CNN-LSTM[29]
CNN-LSTM[29]
CNN-LSTM[29]
4
8
12
16
64
64
64
64
95.00
96.20
98.00
92.50



95.33
97.00
99.95
93.20






COR+GCN[13]
COR+GCN[13]
COR+GCN[13]
1
1
1
64
40
16
98.56
97.13
53.41








FDF+SVM_RBF[30]106497.22
RF[31]26498.1697.30
SVM[31]26497.6496.02
MCL+马氏距离分类器[32]106499.406.33098.8010.500
CNN+数据增强[9]12640.190300.82
PLV+Gamma[12]
PLV+Gamma[12]
4
4
56
21
99.40
96.00




ESTformer[33]106494.6133.70
Autoencoder-CNN[34]86499.4599.89
提出方法
提出方法
提出方法
提出方法
2
2
2
2
3
8
16
64
90.60
96.47
98.70
99.45
0.179
0.014
0.002
0.000
90.16
96.74
97.53
99.01
0.137
0.011
0.005
0.000
0.29
0.29
0.30
0.33

新窗口打开| 下载CSV


Fraschini等[11]采用构建功能连通性脑网络的方法,使用12 s数据,在64通道的情况下,EO的识别准确率为96.90%,EC的识别准确率为92.60%. 相比之下,本文方法的准确率平均提高了2.55%和6.41%. Alyasseri等[30]通过提取PSD和AR特征,送入SVM_RBF分类器进行分类,在64通道的条件下识别准确率达到97.22%,比本文方法低2.23%. Kaur等[31]应用PCA提取特征,使用SVM分类的睁眼和闭眼状态的身份识别准确率分别为97.64%和96.02%,使用RF分类器的身份识别准确率分别为98.16%和97.30%,识别效果不如本文方法. Yahyaei等[32]提取脑电信号的MCL特征,使用马氏距离分类器进行分类,在10 s时间段、64通道的条件下,EO识别准确率达到99.40%,EC识别准确率达到98.80%,但EER较高. Kumar等[12]使用基于锁相值的SVM方法,在使用56通道时获得99.40%的准确率,当通道数减少至21时,准确率仅下降3.40%. 相比之下,本文方法在2 s时间段、16通道的配置下,准确率超过文献[12]方法在4 s时间段、21通道下的表现. 通过上述在睁眼和闭眼状态数据上的比较,本文方法在参数量较少,时间段较短的情况下,分类效果在多种性能评估下更好.

表7所示为本文方法与其他方法在DEAP数据集上的分类性能对比. 选用10 s的时间段,分别针对5通道和32通道进行测试,均实现了99.00%以上的准确率. Wilaiprasitporn等[35]提出结合CNN和GRU的混合模型,该方法将脑电信号划分为10 s长度,在5通道和32通道下分别达到99.17%和99.90%的平均准确率,分类准确率不如本文方法,且模型参数量较大. Gómez-Tapia等[36]探究进行脑纹识别所需的最短时间段,在经过预处理的脑电信号中提取功率谱密度或小波能量特征,使用MLP进行分类,在1 s时间段下的识别准确率达到95.00%,在3 s时间段下进一步提升到99.00%,文献[36]方法所需的时间段短,但对信号质量的要求较高,信号预处理过程较复杂,且使用了完整的32通道数据. 相比之下,本文所提方法在仅使用5通道的情况下即可取得更优的性能. Jin等[24]提出EPI-CGAN模型进行脑纹识别,实现了99.88%的高准确率,但采用的时间段较长,且分类性能略逊于本文方法. 通过在DEAP数据集上的比较可知,提出的网络模型在低通道数下的分类识别效果综合表现最优.

表 7   DEAP数据集的比较

Tab.7  Comparison of DEAP dataset

方法slot/sNACC/%Np/106
CNN-GRU[35]
CNN-GRU[35]
10
10
5
32
99.17
99.90
1.89
MLP[36]
MLP[36]
1
3
32
32
95.00
99.00

EPI-CGAN[24]123299.88
提出方法
提出方法
10
10
5
32
99.98
100.00
0.28
0.29

新窗口打开| 下载CSV


4. 结 语

提出基于轻量级时空注意力机制的卷积神经网络,能够在通道数少与时间段短的条件下实现高效的脑纹识别. 在参数量仅为0.29×106的情况下,该方法在多个公开数据集上表现出优越的性能. 在通道数少于8或时间段短于1 s的条件下,模型性能有所下降,表明其对时空信息具有较强的依赖性. 未来的研究将进一步聚焦更少通道数、更短时间段下模型性能的提升,重点探索如何自适应地选择对脑纹识别贡献最大的关键通道子集.

参考文献

ZHANG S, SUN L, MAO X, et al

Review on EEG-based authentication technology

[J]. Computational Intelligence and Neuroscience, 2021, 2021 (1): 5229576

DOI:10.1155/2021/5229576      [本文引用: 1]

陈彬滨, 吴涛, 陈黎飞

基于缩放卷积注意力网络的跨多个体脑电情绪识别

[J]. 中国生物医学工程学报, 2024, 43 (5): 550- 560

[本文引用: 1]

CHEN Binbin, WU Tao, CHEN Lifei

Cross-subjects EEG emotion recognition based on scaled convolutional attention network

[J]. Chinese Journal of Biomedical Engineering, 2024, 43 (5): 550- 560

[本文引用: 1]

刘国文, 唐佳佳, 金宣妤, 等

基于多尺度卷积和身份子空间的脑纹识别

[J]. 杭州电子科技大学学报: 自然科学版, 2025, 45 (1): 82- 88

[本文引用: 1]

LIU Guowen, TANG Jiajia, JIN Xuanyu, et al

Brainprint recognition based on multi-scale convolution and subspace

[J]. Journal of Hangzhou Dianzi University: Natural Sciences, 2025, 45 (1): 82- 88

[本文引用: 1]

PALANIAPPAN R, MANDIC D P

Biometrics from brain electrical activity: a machine learning approach

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29 (4): 738- 742

DOI:10.1109/TPAMI.2007.1013      [本文引用: 1]

FALLANI F D V, VECCHIATO G, TOPPI J, et al. Subject identification through standard EEG signals during resting states [C]//Proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society. Boston: IEEE, 2011: 2331–2333.

[本文引用: 1]

ALBASRI A, ABDALI-MOHAMMADI F, FATHI A

EEG electrode selection for person identification thru a genetic-algorithm method

[J]. Journal of Medical Systems, 2019, 43 (9): 297

DOI:10.1007/s10916-019-1364-8      [本文引用: 1]

YANG S, DERAVI F

On the usability of electroencephalographic signals for biometric recognition: a survey

[J]. IEEE Transactions on Human-Machine Systems, 2017, 47 (6): 958- 969

DOI:10.1109/THMS.2017.2682115      [本文引用: 1]

SUN Y, LO F P W, LO B

EEG-based user identification system using 1D-convolutional long short-term memory neural networks

[J]. Expert Systems with Applications, 2019, 125: 259- 267

DOI:10.1016/j.eswa.2019.01.080      [本文引用: 5]

SCHONS T, MOREIRA G J P, SILVA P H L, et al. Convolutional network for EEG-based biometric [C]//Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications. Cham: Springer, 2018: 601–608.

[本文引用: 3]

WANG M, EL-FIQI H, HU J, et al

Convolutional neural networks using dynamic functional connectivity for EEG-based person identification in diverse human states

[J]. IEEE Transactions on Information Forensics and Security, 2019, 14 (12): 3259- 3272

DOI:10.1109/TIFS.2019.2916403      [本文引用: 1]

FRASCHINI M, HILLEBRAND A, DEMURU M, et al

An EEG-based biometric system using eigenvector centrality in resting state brain networks

[J]. IEEE Signal Processing Letters, 2015, 22 (6): 666- 670

DOI:10.1109/LSP.2014.2367091      [本文引用: 3]

KUMAR G P, DUTTA U, SHARMA K, et al. EEG-based biometrics: phase-locking value from gamma band performs well across heterogeneous datasets [C]//Proceedings of the International Conference of the Biometrics Special Interest Group. Darmstadt: IEEE, 2022: 1–6.

[本文引用: 5]

TIAN W, LI M, JU X, et al

Applying multiple functional connectivity features in GCN for EEG-based human identification

[J]. Brain Sciences, 2022, 12 (8): 1072

DOI:10.3390/brainsci12081072      [本文引用: 5]

MYUNG K, GU K, BUM P. Spectrogram and CNN based personal identification using EEG signal [C]//Proceedings of the IEEE International Conference on Consumer Electronics-Asia. Gangwon: IEEE, 2021: 1–4.

[本文引用: 1]

HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville: IEEE, 2021: 13708–13717.

[本文引用: 1]

LAWHERN V J, SOLON A J, WAYTOWICH N R, et al

EEGNet: a compact convolutional neural network for EEG-based brain–computer interfaces

[J]. Journal of Neural Engineering, 2018, 15 (5): 056013

DOI:10.1088/1741-2552/aace8c      [本文引用: 1]

LI H, LI J, WEI H, et al

Slim-neck by GSConv: a lightweight-design for real-time detector architectures

[J]. Journal of Real-Time Image Processing, 2024, 21 (3): 62

DOI:10.1007/s11554-024-01436-6      [本文引用: 1]

GARNOT V S F, LANDRIEU L, GIORDANO S, et al. Satellite image time series classification with pixel-set encoders and temporal self-attention [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2020: 12322–12331.

[本文引用: 1]

GOLDBERGER A L, AMARAL L A, GLASS L, et al

PhysioBank, PhysioToolkit, and PhysioNet: components of a new research resource for complex physiologic signals

[J]. Circulation, 2000, 101 (23): E215- E220

[本文引用: 1]

KOELSTRA S, MUHL C, SOLEYMANI M, et al

DEAP: a database for emotion Analysis;Using physiological signals

[J]. IEEE Transactions on Affective Computing, 2012, 3 (1): 18- 31

DOI:10.1109/T-AFFC.2011.15      [本文引用: 1]

ASHENAEI R, ASGHAR B A, YOUSEFI R T

Stable EEG-based biometric system using functional connectivity based on time-frequency features with optimal channels

[J]. Biomedical Signal Processing and Control, 2022, 77: 103790

DOI:10.1016/j.bspc.2022.103790      [本文引用: 4]

ZHOU M, FANG Y, XIAO Z. Personal identification with exploiting competitive tasks in EEG signals [C]//Biometric Recognition. Cham: Springer, 2021: 11–19.

[本文引用: 2]

ALYASSERI Z A A, AHMAD ALOMARI O, MAKHADMEH S N, et al

EEG channel selection for person identification using binary grey wolf optimizer

[J]. IEEE Access, 2022, 10: 10500- 10513

DOI:10.1109/ACCESS.2021.3135805      [本文引用: 2]

JIN R, WANG Y, BAI R, et al. EPI-CGAN: robust EEG-based person identification using conditional generative adversarial network [C]//Proceedings of the IEEE International Joint Conference on Biometrics. Abu Dhabi: IEEE, 2023: 1–9.

[本文引用: 4]

ORTEGA-RODRÍGUEZ J, GÓMEZ-GONZÁLEZ J F, PEREDA E

Selection of the minimum number of EEG sensors to guarantee biometric identification of individuals

[J]. Sensors, 2023, 23 (9): 4239

DOI:10.3390/s23094239      [本文引用: 2]

AKBARNIA Y, DALIRI M R

EEG-based identification system using deep neural networks with frequency features

[J]. Heliyon, 2024, 10 (4): e25999

DOI:10.1016/j.heliyon.2024.e25999      [本文引用: 2]

ALSHEHRI L, HUSSAIN M

A lightweight GCT-EEGNet for EEG-based individual recognition under diverse brain conditions

[J]. Mathematics, 2024, 12 (20): 3286

DOI:10.3390/math12203286      [本文引用: 3]

LI D, ZENG Z, HUANG N, et al

Brain topographic map: a visual feature for multi-view fusion design in EEG-based biometrics

[J]. Digital Signal Processing, 2025, 164: 105251

DOI:10.1016/j.dsp.2025.105251      [本文引用: 3]

DAS B B, KUMAR P, KAR D, et al

A spatio-temporal model for EEG-based person identification

[J]. Multimedia Tools and Applications, 2019, 78 (19): 28157- 28177

DOI:10.1007/s11042-019-07905-6      [本文引用: 6]

ALYASSERI Z A A, AL-BETAR M A, AWADALLAH M A, et al. EEG feature fusion for person identification using efficient machine learning approach [C]//Proceedings of the Palestinian International Conference on Information and Communication Technology. Gaza: IEEE, 2021: 97–102.

[本文引用: 2]

KAUR B, SINGH D. Neuro signals: a future biomertic approach towards user identification [C]//Proceedings of the 7th International Conference on Cloud Computing, Data Science and Engineering - Confluence. Noida: IEEE, 2017: 112–117.

[本文引用: 3]

YAHYAEI R, ESAT ÖZKURT T

Mean curve length: an efficient feature for brainwave biometrics

[J]. Biomedical Signal Processing and Control, 2022, 76: 103664

DOI:10.1016/j.bspc.2022.103664      [本文引用: 2]

LI D, ZENG Z, WANG Z, et al

ESTformer: transformer utilising spatiotemporal dependencies for electroencephalogram super-resolution

[J]. Knowledge-Based Systems, 2025, 317: 113345

DOI:10.1016/j.knosys.2025.113345      [本文引用: 2]

BANDANA D B, KUMAR R S, SATHYA B K, et al

Person identification using autoencoder-CNN approach with multitask-based EEG biometric

[J]. Multimedia Tools and Applications, 2024, 83 (35): 83205- 83225

DOI:10.1007/s11042-024-18693-z      [本文引用: 3]

WILAIPRASITPORN T, DITTHAPRON A, MATCHAPARN K, et al

Affective EEG-based person identification using the deep learning approach

[J]. IEEE Transactions on Cognitive and Developmental Systems, 2020, 12 (3): 486- 496

DOI:10.1109/TCDS.2019.2924648      [本文引用: 3]

GÓMEZ-TAPIA C, BOZIC B, LONGO L

On the minimal amount of EEG data required for learning distinctive human features for task-dependent biometric applications

[J]. Frontiers in Neuroinformatics, 2022, 16: 844667

DOI:10.3389/fninf.2022.844667      [本文引用: 4]

/