浙江大学学报(工学版), 2020, 54(10): 1899-1905 doi: 10.3785/j.issn.1008-973X.2020.10.005

计算机技术

基于深度卷积神经网络的睡眠分期模型

贾子钰,, 林友芳, 张宏钧, 王晶,

Sleep stage classification model based ondeep convolutional neural network

JIA Zi-yu,, LIN You-fang, ZHANG Hong-jun, WANG Jing,

通讯作者: 王晶,女,副教授. orcid.org/0000-0002-1017-2231. E-mail: wj@bjtu.edu.cn

收稿日期: 2019-09-10  

Received: 2019-09-10  

作者简介 About authors

贾子钰(1993—),男,博士生,从事脑机接口与深度学习的研究.orcid.org/0000-0002-8523-1419.E-mail:ziyujia@bjtu.edu.cn , E-mail:ziyujia@bjtu.edu.cn

摘要

针对现阶段数据和特征决定睡眠分期模型的分类精度上限的问题,提出深度卷积神经网络模型. 在模型主体构建方面,并行卷积网络可以自动学习原始信号的时域特征和频域特征,特征融合网络通过空洞卷积和残差连接进行多特征融合,分类网络基于融合后的特征进行睡眠分期. 利用生成少数类过采样技术(SMOTE)减少类别不平衡对分类效果的影响,结合两步训练法对模型进行优化. 实验使用Sleep-EDF数据集的原始单导脑电信号(Fpz-Cz通道)对模型进行20折交叉验证,得到总体精度和宏F1分别为86.73%和81.70%. 提出的深度卷积模型在没有任何先验知识的情况下,对脑电信号进行端到端的学习,分类准确率优于传统的深度学习模型.

关键词: 睡眠分期 ; 脑电信号 ; 深度学习 ; 卷积神经网络(CNN)

Abstract

A deep convolutional neural network model was proposed aiming at the problem that the current data and features determine the upper limit of the classification accuracy of the sleep staging model. The parallel convolutional neural network automatically learns the time-domain and frequency-domain features of the original signals in terms of model construction. The feature fusion neural network fuses multi-features through dilated convolution and residual connection. The classification neural network recognizes the sleep stages based on fused features. Synthetic minority oversampling technique (SMOTE) method was applied to enhance data in order to reduce the effect of classification imbalance on classification effect, and two-step training method was applied to optimize the model. The original single-channel electroencephalogram (Fpz-Cz channel) of the Sleep-EDF data set was used to evaluate the proposed model by the 20-fold cross-validate scheme. The overall accuracy and macro-averaging F1-score were 86.73% and 81.70% respectively. The proposed deep convolution neural network was an end-to-end deep learning model without any prior knowledge. The experimental results showed that the classification accuracy of the proposed model was better than traditional deep learning models.

Keywords: sleep stage classification ; electroencephalogram ; deep learning ; convolutional neural network (CNN)

PDF (768KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

贾子钰, 林友芳, 张宏钧, 王晶. 基于深度卷积神经网络的睡眠分期模型. 浙江大学学报(工学版)[J], 2020, 54(10): 1899-1905 doi:10.3785/j.issn.1008-973X.2020.10.005

JIA Zi-yu, LIN You-fang, ZHANG Hong-jun, WANG Jing. Sleep stage classification model based ondeep convolutional neural network. Journal of Zhejiang University(Engineering Science)[J], 2020, 54(10): 1899-1905 doi:10.3785/j.issn.1008-973X.2020.10.005

睡眠分期的研究对生物医学实践有着深远的影响[1]. 通常来讲,睡眠专家利用生理电信号来划分睡眠阶段,根据睡眠分类标准,如Rechtschaffen和Kales(R&K)[2]以及美国睡眠医学会(American Academy of Sleep Medicine, AASM)标准[3],人工将睡眠阶段进行划分和统计分析,这使得人工睡眠分期成为一项繁琐且耗时的任务. 由于单导信号更便于采集和分析,基于单导信号的研究越来越多[4-5],研究基于单导脑电信号的自动睡眠分期方法具有重要的实际意义.

近年来,王卫星等[6-7]利用单导脑电信号进行自动分类方法的研究. 使用单导脑电信号进行睡眠分期的研究大多数基于特征工程[8-10],即从原始数据中手动提取时域特征或者频域特征再放入到特定分类器进行分类. 这些方法已经达到了较好的效果,但具有一定的局限性,例如需要专家的先验知识进行特征提取,无法实现对原始生理电信号进行端到端的学习.Orestis等[11-13]将深度神经网络应用于睡眠分期,实现了端到端的学习. 这些模型避免了手动设计特征的主观性,但对小规模类别不平衡的睡眠数据存在局限性,分类精度有很大的提升空间.

本文在上述研究的基础上,以深度卷积神经网络为主体,结合两步训练法[12]、残差连接[14]等深度学习优化技术构建端到端的自动睡眠分期模型. 该模型通过并行卷积神经网络,提取原始脑电信号的时域和频域特征;使用空洞卷积神经网络,进行特征融合;通过全连接层,利用融合后的特征进行睡眠分期. 为了克服睡眠数据样本类别不平衡的问题,模型采用生成少数类过采样技术[15](synthetic minority oversampling technique, SMOTE) 进行数据增强,使用样本类平衡的数据进行学习,提升少数类的识别率. 本文提出的深度卷积模型可以在没有任何先验知识的情况下,对单导脑电数据进行端到端的学习,且分类准确率处于较高水平.

1. 模型架构

图1所示,提出的深度卷积模型主要由3个部分组成:并行卷积网络、特征融合网络和分类输出网络. 其中,并行卷积网络可以从原始单通道脑电信号中自动提取特征,特征融合网络可以将提取出的时域特征和频域特征进行融合,分类网络用于模型的分类输出.

图 1

图 1   深度卷积神经网络架构图

Fig.1   Deep convolutional neural network architecture


1.1. 并行卷积网络

并行卷积网络是模型的第1部分,该网络在并行卷积的第1层使用2种不同尺寸的卷积核,从单通道脑电信号中自动提取分类特征. 研究表明,较小尺度的卷积核可以更好地捕捉时间信息,较大尺度的卷积核可以更好地捕捉频域信息[16]. 使用不同尺度的卷积核,可以捕获脑电信号的时域特征和频域特征.

$h_i^{\rm{l}} = {\rm{CN{N}}_{{\theta _l}}}\left( {{e_i}} \right),$

$h_i^{\rm{s}} = {\rm{CN{N}}_{{\theta _s}}}\left( {{e_i}} \right),$

$ {{\rm{featur{e}}}_i} = h_i^{\rm{l}}\left\| {h_i^{\rm{s}}} \right..$

式中: $\theta _{\rm l}$$\theta_ {\rm s}$为具有不同尺度卷积核的CNNs参数, $e_i$为样本中第i个原始脑电信号, $h_i^{\rm l}$$h_i^{\rm s}$分别为通过CNNs对 $e_i$提取出的时域特征和频域特征, ${\rm{featur{e}}}_i$为时域特征和频域特征的拼接.

并行卷积网络中的每一个分支网络由4个卷积层和2个最大池层组成. 每个卷积层会顺序执行3个操作:卷积运算、批量归一化和线性整流函数激活(rectified linear unit, ReLU). ReLU激活函数的表达式为

${\rm{ReLU}} (x) = \max \;(0,x).$

1.2. 特征融合网络

特征融合网络是模型的第2部分,在大多数机器学习模型中特征融合起着重要的作用[17]. 该网络通过空洞卷积神经网络,把提取出的时域特征和频域特征进行融合,应用残差连接使模型的深度更深,提高模型的表征能力和睡眠分期的效果. 空洞卷积神经网络的使用可以让感受野随着网络层数的增加获得指数级增长,而不是线性增长. 针对大量提取的特征,随着网络层数的增加,时域特征和频域特征被快速融合,使用ReLU函数激活的空洞卷积的表达式为

$ x_{p,t}^l = {\rm{ReLU} }\left( {\sum\limits_{q \in M_p^l} {\sum\limits_{i = - \frac{k}{2}}^{\frac{k}{2}} {w_{p,i}^l} } x_{q\;,\;t - d , i}^{l - 1} + b_p^l} \right). $

式中: $x_{p,t}^l$为第 $l$层中第 $t$个元素的第 $p$个特征, $w_{p,i}^l$$ {b}_{p}^{l} $分别为卷积操作中的权重与偏置项, $ k $为卷积核的大小, $d$为空洞参数. 如图2所示为由3个空洞卷积层组成的空洞卷积神经网络. 该结构的卷积核大小为3,空洞参数分别为1、2、4, $\{ {{x}}_1,{{x}}_2, \cdots ,{{x}}_T\}$$\left\{{{{y}}}_{1},{{{y}}}_{2},\cdots ,{{{y}}}_{T}\right\}$分别为输入的特征与融合后的特征.

图 2

图 2   空洞卷积神经网络

Fig.2   Dilated convolutional neural network


1.3. 分类网络

分类网络是提出模型的第3部分. 该网络是由完全连接的Softmax层构成[18],表达式为

${f_{{\rm{Softmax}}}} = \frac{{\exp\; \left( {{{W}}_{{l_i}}^{\rm{T}}{{ y}_i} + {b_{{l_i}}}} \right)}}{{\displaystyle\sum\limits_{j = 1}^c {\exp }\; \left( {{{W}}_j^{\rm{T}}{{ y}_j} + {b_j}} \right)}}.$

式中: ${{l}}_i$为对应样本的标签, ${{W}}_j$${{{W}}}_{l_i}$分别为全连接输出层权重矩阵 ${ W}$的第 $j$列和第 $l_i$列, $b_j$$b_{l_i}$为对应的偏置,c为所有训练样本中的类别数.

2. 模型训练

应用两步训练法有效地训练所提出的模型,结合SMOTE方法进行数据增强,防止模型产生类别不平衡的问题. 两步训练法分成预训练(pre-train)和微调训练(fine-tune). 在训练过程中,交叉熵作为损失函数,以量化训练过程中预测和目标睡眠类别之间的一致性. 基于小批量梯度下降的自适应动量估计(adaptive moment estimation,Adam)优化器对损失函数进行优化,可以自适应地调整模型学习的速率. 对于非稀疏特征,以较小的学习率对深度神经网络权值进行更新;对于稀疏特征,以较大的学习率对深度神经网络权值进行更新. 两步训练具体的训练步骤如图3所示.

图 3

图 3   模型两步训练流程图

Fig.3   Model two-step training flow chart


2.1. 预训练

预训练主要是针对并行卷积网络进行训练,可以使卷积层权值靠近较优的(保持在高梯度区间内)局部最优解,以便能够有效地对权值进行进一步的微调. 使用SMOTE方法生成类平衡训练集,对并行卷积网络的时频域特征的提取能力进行训练. 类平衡训练集的使用可以有效地避免样本类别不平衡产生的问题,使得模型不会过度适应样本数量多的睡眠阶段. 在模型的预训练阶段,仅使用并行卷积网络和分类网络;在预训练结束后,保存并行卷积网络的权值,作为微调训练的初始权网络.“舍弃”分类网络的权值,待微调训练时重新训练.

2.2. 微调训练

微调训练主要是针对特征融合网络和分类网络进行训练. 为了防止并行卷积网络的网络权重被过度调整,模型依据不同网络设置不同的学习率,并行卷积网络使用较低的学习率0.000 01,其余网络设置较高的学习率0.000 1. 其中,微调训练输入的训练集合是未经处理的原始数据集.

采用2种正则化技术,防止模型过拟合. 第1种技术是dropout[19]技术,它在训练期间会以一定的概率“舍弃”网络中的神经元,以增强模型的泛化能力. 通常dropout数值被设置为0.3或0.5. 模型中的dropout层仅用于训练,在测试期间会从模型中移除以提供确定性输出. 第2种技术是L2正则化,将L2范数惩罚项添加到损失函数中降低模型的复杂度,可以防止模型中出现过大的参数值、产生爆炸梯度等问题.

3. 实验与分析

3.1. 数据集

实验选取PhysioNet公开的基准睡眠数据Sleep-EDF数据集[20-21]. 该睡眠数据集包含20名健康受试者(26~35岁),其中男性健康人10人,女性健康人10人. 每个人的多导睡眠图(polysomnography, PSG)记录时长约为20 h,包含来自Fpz-Cz和Pz-Cz通道的2导脑电信号,1导眼电信号和1导肌电信号. 所有脑电信号和眼电信号都具有相同的采样率100 Hz,且信号被划分为30 s每段. 根据R&K睡眠标准[2]可知,睡眠专家将这些记录进行人工标记(W期、N1期、N2期、N3期、N4期、REM期、MOVEMENT、UNKNOWN). 本文依据现行通用的AASM睡眠标准,将R&K睡眠标准判定的N3期和N4期合并为同一分期(N3期),剔除了MOVEMENT和UNKNOWN等不相关数据,因为它们不属于5个睡眠阶段[3]. 表1列出睡眠专家对Sleep-EDF数据集的分类结果. 由Sleep-EDF数据集分期情况可以得出,本实验数据集的样本类别不平衡,其中N2睡眠阶段与N1睡眠阶段样本比例约为6∶1,N2睡眠阶段的样本数量占总样本量的42.43%,其余4个睡眠阶段占总样本数量的57.57%. 样本类的不平衡会导致模型过多地关注样本多的类别,导致N1睡眠阶段的识别率下降,影响模型的分类效果. 为了解决睡眠分期数据样本类别不平衡的问题,使用SMOTE方法进行数据增强,构建类平衡的睡眠数据集进行模型的训练.

表 1   Sleep-EDF睡眠分期情况

Tab.1  Sleep-EDF sleep staging

指标 数量 所占比例/%
W 7927 18.90
N1 2804 6.68
N2 17799 42.43
N3 5703 13.59
REM 7717 18.40

新窗口打开| 下载CSV


3.2. 评价指标

使用不同的指标评估所提出的模型,包括总体准确性(accuracy,ACC)、精度(precision,PR)、召回率(recall,RE)和F1. 由于本文研究多分类问题,每类的评估通过将待评估类作为正例(positive),其他各类当作负例(negative)进行计算. 具体指标定义如下:

$ {\rm{ACC=\frac{TP+TN}{TN+TP+FP+FN}}}, $

$ {\rm{PR=TP/(TP+FP)}}, $

$ {\rm{RE = TP/(TP + FN)}}, $

$ {F_{1} = {\rm\frac{{2PR \times RE}}{{PR + RE}}}}. $

式中:TP为真阳数,表示模型预测为正例的正例样本的数量;FP为假阳数,表示模型预测为正例的负例样本的数量. 同理可以得到TN和FN.

3.3. 实验设计以及参数设置

该实验使用单导脑电信号(Fpz-Cz通道)训练和评估所提出的模型,无需手动提取额外的特征. 为了最大化利用现有样本对模型进行合理评估,使用K折交叉验证进行实验(K=20). 表2详细介绍了预训练模型的最佳结构及对应的参数.

表 2   预训练模型的最佳结构及详细参数

Tab.2  The best structure and corresponding parameters of pretrained model

层名称 层类型 单元数 激活函数 大小 步长
Input1
Con11 Convolution 64 Relu 50 6
MaxP11 MaxPooling 8 8
D11 Dropout (0.5)
Con12 Convolution 128 Relu 8 1
Con13 Convolution 128 Relu 8 1
Con14 Convolution 128 Relu 8 1
MaxP12 MaxPooling 4 4
F1 Flatten
Con21 Convolution 64 Relu 400 50
MaxP21 MaxPooling 4 4
D21 Dropout (0.5)
Con22 Convolution 128 Relu 6 1
Con23 Convolution 128 Relu 6 1
Con24 Convolution 128 Relu 6 1
MaxP22 MaxPooling 2 2
F2 Flatten
D3 Dropout (0.5)
Dense1 Dense 5 Softmax

新窗口打开| 下载CSV


在预训练结束后,模型“舍弃”原有Softmax层,加入空洞卷积神经网络. 其中,空洞参数分别设置为1、2、4,进行特征融合及模型微调. 该实验的环境选择以TensorFlow为后端的Keras作为深度学习的框架,其中 Python 版本为3.5.4,TensorFlow的版本为1.11.0,Keras的版本为 2.2.4.GPU的型号是TITAN X (Pascal),且每块GPU显存是12 GB.

3.4. 实验结果

表3列出K折交叉验证后的混淆矩阵,其中每行和每列分别表示由睡眠专家和提出模型的分类结果,粗体数字表示提出模型正确分类的样本数. 每行的最后3列表示根据混淆矩阵计算的每类的性能指标. 可以看出,针对大多数睡眠阶段的分类效果都很好,F1的取值为86.54~90.32,但N1睡眠阶段的分类表现较差,F1低于60,且大多数错误分类阶段在N2,这可能是由于数据中存在背景波产生的误分. 混淆矩阵的对角线几乎是对称的,这表明错误的分类不太可能是样本类别不平衡导致的[11,22-23]. 如图4所示为睡眠专家人工分期与提出的深度卷积模型自动睡眠分期的对比图. 图中,N为样本数,每个样本表示30 s的睡眠,60个样本占0.5 h. 如图4(a)所示为由睡眠专家对数据(SC4121E0)人工判定得出的睡眠图,如图4(b)所示为由睡眠分期模型对数据(SC4121E0)自动判定得出的睡眠图. 从图4可以看出,提出模型的判定结果从整体上接近睡眠专家人工判定的结果,这说明模型具有较好的睡眠分期能力.

表 3   基于深度卷积神经网络模型的混淆矩阵及各类评价指标

Tab.3  Confusion matrix and various evaluation indicators based on deep convolutional neural network model

分期 W N1 N2 N3 REM PR/% RE/% F1/%
W 7295 271 131 37 193 88.67 92.03 90.32
N1 369 1396 606 16 417 65.57 49.79 56.60
N2 378 283 15582 853 703 91.21 87.54 89.34
N3 33 3 270 5397 0 85.53 94.63 89.85
REM 152 176 495 7 6887 83.99 89.24 86.54

新窗口打开| 下载CSV


图 4

图 4   睡眠专家人工分期与模型自动睡眠分期对比图

Fig.4   Comparison of expert manual sleep staging and model automatic sleep staging


为了证明提出模型的有效性,将提出模型结果与近年先进研究结果[9,11-13]进行对比. 表4中,MF1为宏F1指标. 如表4所示,在5组模型中,Orestis等[9]使用手动设计睡眠分期特征的方法,Orestis等[11]使用浅层卷积神经网络进行自动特征提取,Supratak等[12-13]及笔者采用组合模型进行分类,本文提出的深度卷积神经网络自动睡眠分期模型相比其余模型获得了更好的分类效果. 除了提出的模型,文献[13]的分类效果是最佳的;相比于Mousavi等[13]提出的模型,本文模型在总体正确率和宏F1上有显著的提升,2种总体指标均提高了2.8%.

表 4   先进研究与提出模型的结果对比

Tab.4  Comparison of advanced research results with results of proposed model

%
模型 ACC MF1 F1
W N1 N2 N3 REM
文献[9]模型 78.9 73.7 71.6 47.0 84.6 84.0 81.4
文献[11]模型 74.8 69.8 65.4 43.7 80.6 84.9 74.5
文献[12]模型 82.0 76.9 84.7 46.6 85.9 84.8 82.4
文献[13]模型 84.3 79.7 89.2 52.2 86.8 85.1 85.0
提出模型 87.1 82.5 90.3 56.6 89.3 89.9 86.5

新窗口打开| 下载CSV


4. 结 语

本文提出深度卷积神经网络模型,用于原始单通道脑电信号的自动睡眠分期. 该模型通过并行卷积网络提取原始脑电信号的时域特征和频域特征,特征融合网络通过空洞卷积神经网络进行时频特征的融合,分类网络基于融合后的特征进行睡眠阶段分期. SMOTE方法构建的样本类平衡数据在两步训练法中被应用,提高了对少数类识别的准确率. 实验表明,本文提出的深度卷积神经网络模型能够从原始睡眠数据中自动提取特征,进行端到端的学习与分类.

参考文献

WULFF K, GATTI S, WETTSTEIN J G, et al

Sleep and circadian rhythm disruption in psychiatric and neurodegenerative disease

[J]. Nature Reviews Neuroscience, 2010, 11 (8): 589- 599

DOI:10.1038/nrn2868      [本文引用: 1]

HOBSON J A

A manual of standardized terminology, techniques and scoring system for sleep stages of human subjects

[J]. JAMA Psychiatry, 1969, 20 (2): 246

[本文引用: 2]

BERRY R B, BROOKS R, GAMALDO C E, et al. The AASM manual for the scoring of sleep and associated events [M]. Darien, Illinois: American Academy of Sleep Medicine, 2012.

[本文引用: 2]

SORS A, BONNET S, MIREK S, et al

A convolutional neural network for sleep stage scoring from raw single-channel EEG

[J]. Biomedical Signal Processing and Control, 2018, 42: 107- 114

DOI:10.1016/j.bspc.2017.12.001      [本文引用: 1]

LACHNER-PIZA D, EPITASHVILI N, SCHULZE-BONHAGE A, et al

A single channel sleep-spindle detector based on multivariate classification of EEG epochs: MUSSDET

[J]. Journal of Neuroscience Methods, 2018, 297: 31- 43

DOI:10.1016/j.jneumeth.2017.12.023      [本文引用: 1]

王卫星, 孙守迁, 李超, 等

基于卷积神经网络的脑电信号上肢运动意图识别

[J]. 浙江大学学报: 工学版, 2017, 51 (7): 1381- 1389

[本文引用: 1]

WANG Wei-xing, SUN Shou-qian, LI Chao, et al

Recognition of upper limb motion intention of EEG signal based on convolutional neural network

[J]. Journal of Zhejiang University: Engineering Science, 2017, 51 (7): 1381- 1389

[本文引用: 1]

杨帮华, 何美燕, 刘丽, 等

脑机接口中基于BISVM的EEG分类

[J]. 浙江大学学报: 工学版, 2013, 47 (8): 1431- 1436

[本文引用: 1]

YANG Bang-hua, HE Mei-yan, LIU Li, et al

EEG classification based on batch incremental SVM in brain computer interfaces

[J]. Journal of Zhejiang University: Engineering Science, 2013, 47 (8): 1431- 1436

[本文引用: 1]

DA S, THIAGO L T, KOZAKEVICIUS A J, et al

Single-channel EEG sleep stage classification based on a streamlined set of statistical features in wavelet domain

[J]. Medical and Biological Engineering and Computing, 2017, 55 (2): 343

DOI:10.1007/s11517-016-1519-4      [本文引用: 1]

ORESTIS T, MATTHEWS P M, GUO Y

Automatic sleep stage scoring using time-frequency analysis and stacked sparse autoencoders

[J]. Annals of Biomedical Engineering, 2016, 44 (5): 1587

DOI:10.1007/s10439-015-1444-y      [本文引用: 3]

PRUCNAL M, POLAK A G

Effect of feature extraction on automatic sleep stage classification by artificial neural network

[J]. Metrology and Measurement Systems, 2017, 24 (2): 229

DOI:10.1515/mms-2017-0036      [本文引用: 1]

ORESTIS T, MATTHEWS P M, GUO Y, et al. Automatic sleep stage scoring with single-channel EEG using convolutional neural networks [EB/OL]. (2016-10-05). https://arxiv.org/abs/1610.01683.

[本文引用: 5]

SUPRATAK A, DONG H, WU C, et al

DeepSleepNet: a model for automatic sleep stage scoring based on raw single-channel EEG

[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2017, 25 (11): 1998- 2008

DOI:10.1109/TNSRE.2017.2721116      [本文引用: 3]

MOUSAVI S, AFGHAH F, ACHARYA U R

SleepEEGNet: automated sleep stage scoring with sequence to sequence deep learning approach

[J]. PloS One, 2019, 14 (5): e0216456

DOI:10.1371/journal.pone.0216456      [本文引用: 6]

HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 770-778.

[本文引用: 1]

CHAWLA N V, BOWYER K W, HALL L O, et al

SMOTE: synthetic minority over-sampling technique

[J]. Journal of Artificial Intelligence Research, 2002, 16: 321- 357

DOI:10.1613/jair.953      [本文引用: 1]

COHEN M X. Analyzing neural time series data: theory and practice [M]. Cambridge: MIT Press, 2014.

[本文引用: 1]

YANG J, YANG J Y, ZHANG D, et al

Feature fusion: parallel strategy vs. serial strategy

[J]. Pattern Recognition, 2003, 36 (6): 1369- 1381

DOI:10.1016/S0031-3203(02)00262-5      [本文引用: 1]

JANG E, GU S, POOLE B. Categorical reparameterization with gumbel-softmax [EB/OL]. (2017-08-05). https://arxiv.org/abs/1611.01144.

[本文引用: 1]

SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al

Dropout: a simple way to prevent neural networks from overfitting

[J]. Journal of Machine Learning Research, 2014, 15 (1): 1929- 1958

[本文引用: 1]

GOLDBERGER A L, AMARAL L A N, GlASS L, et al

PhysioBank, PhysioToolkit, and PhysioNet: components of a new research resource for complex physiologic signals

[J]. Circulation: Journal of the American Heart Association, 2000, 101 (23): e215- e220

[本文引用: 1]

KEMP B, ZWINDERMAN A H, TUK B, et al

Analysis of a sleep-dependent neuronal feedback loop: the slow-wave microcontinuity of the EEG

[J]. IEEE Transactions on Biomedical Engineering, 2000, 47 (9): 1185- 1194

DOI:10.1109/10.867928      [本文引用: 1]

金欢欢, 尹海波, 何玲娜

端到端单通道睡眠EEG自动分期模型

[J]. 计算机科学, 2019, 46 (3): 242- 247

[本文引用: 1]

JIN Huan-huan, YIN Hai-bo, HE Ling-na

End-to-end single-channel automatic staging model for sleep EEG signal

[J]. Computer Science, 2019, 46 (3): 242- 247

[本文引用: 1]

JIA Z Y, LIN Y F, WANG J, et al. GraphSleepNet: adaptive spatial-temporal graph convolutional networks for sleep stage classification [C]// Proceedings of the 29th International Joint Conference on Artificial Intelligence. Yokohama, Japan: IJCAI, 2020: 1324-1330.

[本文引用: 1]

/