浙江大学学报(工学版), 2020, 54(5): 978-984 doi: 10.3785/j.issn.1008-973X.2020.05.016

地球科学

基于卷积自编码器的地震数据处理

江金生,, 任浩然,, 李瀚野

Seismic data processing based on convolutional autoencoder

JIANG Jin-sheng,, REN Hao-ran,, LI Han-ye

通讯作者: 任浩然,男,副教授. orcid.org/0000-0002-4518-6502. E-mail: rhr@zju.edu.cn

收稿日期: 2019-06-11  

Received: 2019-06-11  

作者简介 About authors

江金生(1994—),男,硕士生,从事地球物理信号处理与人工智能研究.orcid.org/0000-0002-3653-2055.E-mail:jiangjs217@zju.edu.cn , E-mail:jiangjs217@zju.edu.cn

摘要

引入以深度学习为代表的数据驱动方法,加速地震数据的处理流程,获得更精确的地下介质信息. 卷积自编码器方法在地震数据压缩降维的同时,利用数据的空间局部相关性自动提取信号特征,避免数学物理模型的假设依赖. 通过设计不同地质模型的地下速度结构,利用波动方程正演模拟构建大量不同特征的地震数据训练集和测试集. 与模型驱动的地震随机噪声压制和地震道插值方法不同,数据驱动下的卷积自编码器方法能够从含随机噪声地震数据和地震道缺失数据中,直接识别和提取出其中的有效地震信号,从而压制随机噪声以及重建原始地震数据,实验结果验证了该方法的有效性. 卷积自编码器方法不需要人工阈值控制,具有更高的处理效率.

关键词: 卷积自编码器 ; 地震道插值 ; 地震随机噪声压制 ; 深度神经网络 ; 稀疏表达

Abstract

Data-driven methods represented by deep learning were introduced into seismic data processing, which can speed up the processing process of seismic data and obtain more accurate information about underground media. The convolutional autoencoder (CAE) method can extract data features by using the spatial correlation of seismic data while compressing it, which avoids the assumption dependence of mathematical and physical model. The underground velocity structures of different geological models were designed, and the training and test sets with different features were obtained through wave equation forward modeling. CAE method is different from the traditional model-driven method of seismic random noise attenuation and seismic data interpolation. CAE method can identify and extract the valid seismic signals directly from seismic data with random noise and missing traces, to attenuate random noise and reconstruct the original seismic data. Experimental results verified the effectiveness of this method. CAE method gets rid of the artificial threshold, therefore has higher processing efficiency.

Keywords: convolutional autoencoder ; seismic data interpolation ; seismic random noise attenuation ; deep neural network ; sparse representation

PDF (1052KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

江金生, 任浩然, 李瀚野. 基于卷积自编码器的地震数据处理. 浙江大学学报(工学版)[J], 2020, 54(5): 978-984 doi:10.3785/j.issn.1008-973X.2020.05.016

JIANG Jin-sheng, REN Hao-ran, LI Han-ye. Seismic data processing based on convolutional autoencoder. Journal of Zhejiang University(Engineering Science)[J], 2020, 54(5): 978-984 doi:10.3785/j.issn.1008-973X.2020.05.016

在野外地震数据采集过程中,受地质环境、仪器因素和经济因素等影响,某些地震道上的数据会出现部分缺失,并会不可避免的记录到随机噪声. 随着高分辨率地震成像技术的发展和勘探目标的日益复杂化,石油地震勘探领域对地震数据质量的要求不断提高. 因此,如何重建缺失的地震道集并获得高信噪比的地震记录,是地震数据处理面临的重要问题.

地震道插值与随机噪声压制是地震数据处理中不可缺少的步骤,对实现高分辨率、高信噪比、高保真度的目标具有重要意义. 地震道插值是通过已有的地震道数据预测重建出缺失的地震道数据,主要有基于预测滤波的插值方法、基于Fourier变换的插值方法和基于波动方程的插值方法[1-3]. 传统的地震随机噪声压制方法主要基于变换域滤波或信号重建,如频率波数域滤波、Radon变换、小波变换和奇异值分解等方法[4-9]. 这些方法基于有效信号与随机噪声在变换域中的特征差异,设计合适的阈值从而滤除大部分噪声. 当数据特征复杂或者面向海量数据时,这种人工控制阈值的处理方法会存在去噪性能和去噪效率不足的问题. 因此,有必要发展智能高效、对参数选择依赖程度低的方法,以满足石油物探技术的智能化发展需求.

近年来,深度神经网络在许多领域都展现出巨大的优势. 卷积神经网络(convolutional neural network,CNN)、深度信念网络(deep belief network,DBN)、循环神经网络(recurrent neural network,RNN)等不同类型的深度神经网络相继在目标识别、图像分类和自然语言处理以及其他工业或商业领域中取得了成功应用[10-12]. 深度神经网络的广泛研究,为勘探地球物理领域带来了新的思路和动力[13-18]. Gramstad等[13]利用卷积神经网络对盐丘顶底界面进行自动化解释;Wu等[14]利用卷积神经网络进行断层检测与识别研究;Alfarraj等[15]利用循环神经网络进行地层岩石物理参数的预测;Alwon[16]利用生成对抗网络进行噪声压制和地震道插值研究.

自编码器属于神经网络[19],使用编码器实现数据压缩,使用解码器实现解压缩. 在编码阶段将高维数据映射为低维数据,获得数据的稀疏表达;在解码阶段利用数据的稀疏表达进行信号的重建. 自编码器最典型的应用是降维,本质是获取数据的本征表达. 近年来,自编码器广泛应用于数据生成模型的学习,并相应形成稀疏自编码器、变分自编码器、收缩自编码器和卷积自编码器等优化模型[20-23]. 其中,卷积自编码器(convolutional autoencoder, CAE)不仅保留传统自编码器的学习方式,而且结合卷积神经网络的卷积、池化和激活等操作,通过叠加实现深层的神经网络,从而实现数据的特征提取. CAE可以在时空域直接对信号数据进行处理,避免变换域滤波器性质带来的复杂性. 本研究基于地震记录的数据特征,设计用于地震数据处理的卷积自编码器深度神经网络,并将其应用于地震道插值和地震随机噪声压制.

1. 卷积自编码器原理

自编码器是典型的表示学习算法,来源于稀疏编码思想,对数据特征提取具有巨大优势. 传统的自编码器由编码器(encoder)和解码器(decoder)两部分组成,通过反向传播算法训练网络使得输出等于输入[24]. 本研究采用CNN网络中常用的卷积层、归一化层、激活层和采样层构建编码器和解码器,形成适用于地震数据处理的卷积自编码器深度神经网络,其编码器对应地震数据的压缩表达,解码器对应地震信号的数据重建.

含随机噪声的地震数据以及地震道随机缺失的地震数据,可以由有效数据 ${{s}}$和随机破坏矩阵 ${{n}}$进行描述:

${{x}} = {{s}} + {{n}}.$

数据 ${{x}}$的信噪比(signal-to-noise ratio,SNR)[25]

${\rm{SNR}} = 10{\log _{10}}\;\frac{{\left\| {{s}} \right\|_2^2}}{{\left\| {{{x}} - {{s}}} \right\|_2^2}}.$

将卷积自编码器方法应用于地震数据处理,则其编码器和解码器可以分别表示为

${{h}} = {f }\left( {{{{W}}_i} \otimes {{x}} + {{{b}}_i}} \right),$

${{y}} = {g}\left( {{{{W}}_i} \otimes {{h}} + {{{b}}_i}} \right).$

式中: ${{x}}$为输入的地震数据; ${{h}}$为数据编码后的本征特征; ${{y}}$为重建的地震数据; ${{{W}}_i}$${{{b}}_i}$分别为每个卷积层的权值矩阵与偏置,i为第i个卷积层;编码器f和解码器g的构建主要由网络结构参数、卷积核数目、卷积核大小等组成。在卷积自编码器的训练过程中,通过最小化均方误差对模型的参数矢量 ${{\theta}} =\{({{{W}}_1},{{{b}}_1}),({{{{W}}_2},{{b}}_2}),\cdots,({{{{W}}_i},{{b}}_i})\}$进行优化:

${{\theta}} = \left\{ {\left( {{{{W}}_{\rm{1}}},{{{b}}_{\rm{1}}}} \right),\left( {{{{W}}_{\rm{2}}},{{{b}}_{\rm{2}}}} \right), \cdot \cdot \cdot, \left( {{{{W}}_i},{{{b}}_i}} \right)} \right\} = \arg \min\; \left\| {{{s}} - {{y}}} \right\|_{\rm{F}}^2.$

为了提高算法的收敛速率和计算效率,使用Adam算法进行目标学习的优化. Adam优化算法基于梯度下降的方法,但又与传统的随机梯度下降算法不同,它能基于训练数据迭代地更新神经网络权重,并同时具有AdaGrad和RMSProp算法的优点. 它不仅可以基于一阶矩均值计算适应性参数学习率,而且可以充分利用梯度的二阶矩均值,因此适用于高噪声和稀疏梯度的非稳态问题,对于大规模数据集的深度学习问题具有较大优势[26].

${{{g}}_t} = {\nabla _{{\theta }}}{F_t}\left( {{{{\theta}} _{t- 1}} } \right),$

${{{m}}_t} = {\beta _{\rm{1}}} {{{m}}_{t{\rm{ - 1}}}}{\rm{ + }}\left( {{\rm{1 - }}{\beta _{\rm{1}}}} \right) {{{g}}_t},$

${{{v}}_t} = {\beta _{\rm{2}}} {{{v}}_{t{\rm{ - 1}}}}{\rm{ + }}\left( {{\rm{1 - }}{\beta _{\rm{2}}}} \right) {{g}}_t^2,$

$\mathop {{{{m}}_t}}\limits^ \wedge = {{{m}}_t}/({{1 - \beta _1^t}}),$

$\mathop {{{{v}}_t}}\limits^ \wedge = {{{v}}_t}/({{1 - \beta _2^t}}),$

${{{\theta}} _i^t} = {{{\theta}}^i_{t - 1}} - \alpha \frac{{\mathop {{m_i^t}}\limits^ \wedge }}{{\sqrt {\mathop {{v^i_t}}\limits^ \wedge } + \varepsilon }}.$

式中: $t$为当前的时间步; $F$为卷积自编码器的优化目标函数; ${{{g}}_t}$为优化目标函数 $F$$t$时间步时的梯度; ${{\theta}} $为模型参数矢量, $\theta^t_i $t时间步时参数矢量 ${{\theta}} $中第i个元素 $\theta_i $的值; $\alpha $为步长;m为梯度g的一阶矩估计, $\; {\beta _{\rm{1}}}$m的指数衰减率,v为梯度g的二阶矩估计, $\; {\beta _{\rm{2}}}$v的指数衰减率,且在第t步的值 $\; \beta _{\rm{1}}^t $$\; \beta _2^t \in $ $ [0,1.0)$$\varepsilon {\rm{ = 1}}{{\rm{0}}^{{\rm{ - 8}}}}$用于确保迭代的稳定. 式(6)~(11)为Adam算法的计算优化过程,其中式(6)~(10)为优化目标函数F梯度项g及其一阶矩估计m和二阶矩估计v的计算与更新,式(11)为参数矢量θ每一元素的迭代更新。

为了验证卷积自编码器深度神经网络在地震数据处理中的有效性,将CAE网络分别用于地震随机噪声压制和地震道插值,网络架构和训练流程分别如图12所示. 地震随机噪声压制的卷积自编码器与地震道插值的卷积自编码器采用相同的网络架构,但两者的训练集和测试集不同. 在地震随机噪声压制的卷积自编码器中,训练集和测试集均为含随机噪声的地震数据. 在地震道插值的卷积自编码器中,训练集和测试集均为地震道随机缺失的地震数据.

图 1

图 1   卷积自编码器网络架构

Fig.1   Architecture of convolutional autoencoder


图 2

图 2   卷积自编码器的训练和测试流程

Fig.2   Training and testing process of convolutional autoencoder


在卷积自编码器深度神经网络中,编码器与解码器各由2个卷积层组成. 编码器中的卷积层后接一个激活层和池化层,解码器中的卷积层在上采样层之后. 激活层均采用ReLU激活函数,它可以通过单侧抑制作用保持神经元的稀疏性,从而避免梯度消失的问题,使得模型的收敛速度维持在一个稳定的状态. 池化层也称为下采样层,采用的是最大池化方式,可以有效保留输入数据的主要特征以及防止过拟合效应. 解码器中的上采样层对应着编码器的池化层,采用最邻近插值方法,可以较稳定地恢复输入数据. 须说明的是,与U-Net网络不同,CAE网络的卷积核个数整体上是逐渐减少的,这是为了保持自编码器网络的压缩降维作用,即通过稀疏限制来保留地震记录最主要的数据特征.

在自编码器的学习框架下,逐层的卷积变换能够有效提取地震信号的本征表达,通过本征表达进行地震信号的重构,这种自编码框架下的特征提取方式在深度学习中有较大优势. 将卷积自编码器深度神经网络应用于地震数据处理,可以使其摆脱部分假设条件和阈值控制的约束,从而实现智能化处理.

2. 网络训练

卷积自编码器深度神经网络的训练集和测试集由地震波数值模拟数据产生. 考虑到不同地质构造下地震数据特征的差异性,对30个不同类型的地下速度结构进行地震波数值模拟,并采用不同的观测系统进行观测,如图3所示. 图中,D为地震道间的距离,d为深度. 这些速度结构模型大致模拟地下高速层、低速层、倾斜层、地堑、地垒以及角度不整合的各种情况. 为了使获得的地震记录具有更为丰富的特征分布,还将Marmousi速度模型切分为若干个小模型进行数值模拟. 所有速度模型的大小均为1 500 m×2 400 m,空间采样间隔为5 m,时间采样间隔为4 ms,记录时长为2.4 s,地震接收道数为300道. 每个速度模型共记录200炮地震记录,炮点位置从模型左侧移动到模型右侧以尽可能覆盖各个观测角度. 在地震道插值中,将正演模拟的完整地震记录作为卷积自编码器网络训练的标签数据,随机缺失模拟地震记录3%~73%的地震道,产生的地震道缺失数据即为卷积自编码器网络训练的输入数据. 在地震随机噪声压制中,将正演模拟的无噪声地震记录作为卷积自编码器网络训练的标签数据. 对正演模拟的无噪声地震记录加入不同程度的高斯噪声,形成信噪比分别为−20.217 9、−5.217 9、0.802 7、6.823 3的4组噪声数据,将产生的含随机噪声地震记录作为卷积自编码器网络训练的输入数据.

图 3

图 3   用于产生训练集的地下速度模型

Fig.3   Velocity models to generate training sets


在地震随机噪声压制和地震道插值中,卷积自编码器深度神经网络的训练集大小均为24 000. 为了保留输入地震数据的空间特征,在训练时以完整的地震记录作为数据输入,数据大小为 ${\rm{3}}00 \times {\rm{600}}$,epoch设置为10,每个epoch的迭代次数为24 000. 为了确保网络收敛的稳定性,并兼顾收敛效率,CAE网络的批大小(batch size)和初始学习率(learning rate)分别设置为1和0.001. 使用标准差为0.1的正态分布矩阵初始化各卷积层的权重,使用常数0作为各卷积层的初始偏置.

CAE网络的训练和测试均基于Tensorflow机器学习框架,并最终在带有2块Tesla K40 GPU的工作站完成. GPU可以显著加速深度神经网络的训练,卷积自编码器网络在地震随机噪声压制中的训练时间约为15.6 h,卷积自编码器网络在地震道插值中的训练时间约为13.3 h,两者的测试时间均可以忽略不计.

3. 地震随机噪声压制

为了验证CAE网络在地震随机噪声压制中的效果,以相同的方式生成相应的独立测试集. 如图4所示即为地震随机噪声压制的测试结果. 图中,tr为记录时长.图4(a)为含随机噪声的地震数据,其信噪比SNR约为−15.551 2,其中大部分有效信号已经被噪声所掩盖;图4(b)为CAE方法的随机噪声压制结果;图4(c)为均值滤波方法的随机噪声压制结果;图4(d)为f-x反褶积方法的随机噪声压制结果. 将CAE方法的随机噪声压制结果与均值滤波、f-x反褶积等传统方法进行对比分析,可以看出,CAE网络直接从含随机噪声地震记录中识别并提取出有效的地震信号,因此随机噪声压制和去除的较干净. 相比于均值滤波和f-x反褶积方法,CAE方法对同相轴密集处的地震波形信息能够进行更好的保留. 虽然CAE方法可以较准确地恢复大部分有效地震数据,但其对微弱地震信号的识别和提取能力还有待提高.

图 4

图 4   地震随机噪声压制结果比对

Fig.4   Comparison of random noise attenuation results


4. 地震道插值

为了验证CAE网络在地震道插值中的效果,对测试集中完整的模拟地震记录分别进行地震道33.3%和66.6%的随机缺失. 使用CAE方法对缺失的地震数据进行插值重建,并将CAE方法的插值重建结果与传统拉普拉斯正则化的插值重建结果进行比较,结果如图5所示. 从比对结果可以看出,在地震道缺失33.3%的情况下,CAE方法与拉普拉斯正则化方法均能重建出完整的地震记录,但在地震数据的细节方面,卷积自编码器方法略优于拉普拉斯正则化方法. 在地震道缺失66.6%的情况下,CAE方法仍能较好的重建地震数据,但拉普拉斯正则化方法的重建结果存在明显的信号串扰和不连续. 在地震道连续密集缺失的情况下,CAE方法的插值重建结果也会存在局部区域的模糊化.

图 5

图 5   地震数据插值重建结果比对

Fig.5   Comparison of seismic data interpolation results


5. 结 语

为了实现高效智能的地震数据处理,提出基于卷积自编码器深度神经网络(CAE)的数据驱动方法,并将其应用于地震随机噪声压制和地震道插值. CAE网络将卷积神经网络与自编码器的学习框架相结合,能够实现数据的稀疏表达以及对数据特征的有效提取.

通过地震波数值模拟构建合适的训练集进行CAE网络的训练,有效实现地震随机噪声的压制和地震道缺失数据的重建. 相比于传统的随机噪声压制和地震道插值方法,CAE方法可以直接从含随机噪声的地震记录和地震道缺失记录中识别并重建出有效的地震信号. 该方法避免了传统方法中数学物理模型的假设依赖,无须人工阈值控制,具有更高的处理效率. 在强噪声弱信号以及地震道连续密集缺失的情况下,CAE方法对有效信号的识别和提取能力还有待加强,这或许与训练集的完备性有关. 下一步工作将继续对卷积自编码器的性能进行研究,并将其应用于实际数据及地震数据处理的其他方面.

参考文献

张英强, 陆文凯.基于迭代收缩高分辨率Radon变换的地震道插值[C]//中国地球物理学会第二十九届年会.昆明: 中国地球物理学会, 2013: 632-633.

[本文引用: 1]

ZHANG Ying-qiang, LU Wen-kai. Seismic trace interpolation method based on iterative shrinking high-resolution radon transform [C]// The 29th Annual Meeting of the Chinese Geophysical Society. Kunming: Chinese Geophysical Society, 2013: 632-633.

[本文引用: 1]

谭军, 宋鹏, 李金山, 等

基于速度加权叠加和AVO分析的叠前地震数据插值方法

[J]. 石油物探, 2017, 56 (6): 812- 819

DOI:10.3969/j.issn.1000-1441.2017.06.006     

TAN Jun, SONG Peng, LI Jin-shan, et al

Pre-stack seismic data interpolation based on velocity-weighted stack and AVO analysis

[J]. Geophysical Prospecting for Petroleum, 2017, 56 (6): 812- 819

DOI:10.3969/j.issn.1000-1441.2017.06.006     

王立明, 刘保华, 许江, 等

一种有效的地震道插值方法

[J]. 地球物理学进展, 2012, 27 (6): 2561- 2569

DOI:10.6038/j.issn.1004-2903.2012.06.033      [本文引用: 1]

WANG Li-ming, LIU Bao-hua, XU Jiang, et al

An effective seismic trace interpolation method

[J]. Progressin Geophys, 2012, 27 (6): 2561- 2569

DOI:10.6038/j.issn.1004-2903.2012.06.033      [本文引用: 1]

SHAN H, MA J, YANG H

Comparisons of wavelets, contourlets and curvelets in seismic denoising

[J]. Journal of Applied Geophysics, 2009, 69 (2): 103- 115

DOI:10.1016/j.jappgeo.2009.08.002      [本文引用: 1]

薛昭, 董良国, 单联瑜

Radon变换去噪方法的保幅性理论分析

[J]. 石油地球物理勘探, 2012, 47 (6): 858- 867

XUE Zhao, DONG Liang-guo, SHAN Lian-yu

Amplitude preservation theoretical analysis of radon transforms denoising method

[J]. OilGeophysical Prospecting, 2012, 47 (6): 858- 867

彭才, 常智, 朱仕军

基于曲波变换的地震数据去噪方法

[J]. 石油物探, 2008, 47 (5): 461- 464

DOI:10.3969/j.issn.1000-1441.2008.05.006     

PENG Cai, CHANG Zhi, ZHU Shi-jun

Noise elimination method based on curvelet transform

[J]. Geophysical Prospecting for Petroleum, 2008, 47 (5): 461- 464

DOI:10.3969/j.issn.1000-1441.2008.05.006     

吴招才, 刘天佑

地震数据去噪中的小波方法

[J]. 地球物理学进展, 2008, 23 (2): 493- 499

WU Zhao-cai, LIU Tian-you

Wavelet transform methods in seismic data noise attenuation

[J]. Progress in Geophysics, 2008, 23 (2): 493- 499

颜中辉, 栾锡武, 王赟, 等

基于经验模态分解的分数维地震随机噪声衰减方法

[J]. 地球物理学报, 2017, 60 (7): 2845- 2857

DOI:10.6038/cjg20170729     

YAN Zhong-hui, LUAN Xi-wu, WANG Yun, et al

Seismic random noise attenuation based on empirical mode decomposition of fractal dimension

[J]. Chinese Journal of Geophysics, 2017, 60 (7): 2845- 2857

DOI:10.6038/cjg20170729     

NEELAMANI R, BAUMSTEIN A I, GILLARD D G, et al

Coherent and random noise attenuation using the curvelet transform

[J]. The Leading Edge, 2008, 27: 240- 248

DOI:10.1190/1.2840373      [本文引用: 1]

HINTON G, DENG L, YU D, et al

Deep neural networks for acoustic modeling in speech recognition

[J]. IEEE Signal Processing Magazine, 2012, 29 (6): 82- 97

DOI:10.1109/MSP.2012.2205597      [本文引用: 1]

LECUN Y, BENGIO Y, HINTON G

Deep learning

[J]. Nature, 2015, 521 (7553): 436

DOI:10.1038/nature14539     

GUO Y, LIU Y, OERLEMANS A, et al

Deep learning for visual understanding: a review

[J]. Neurocomputing, 2016, 187: 27- 48

DOI:10.1016/j.neucom.2015.09.116      [本文引用: 1]

GRAMSTAD O, NICKELM. Automated interpretation of top and base salt using deep-convolutional networks [C]// 88th Annual International Meeting, SEG. Anaheim: Society of Exploration Geophysicists, 2018: 1956-1960.

[本文引用: 2]

WU X, SHI Y, FOMEL S. Convolutional neural networks for fault interpretation in seismic images [C]// 88th Annual International Meeting, SEG. Anaheim: Society of Exploration Geophysicists, 2018: 1946-1950.

[本文引用: 1]

ALFARRAJ M, ALREGIB G. Petrophysicalproperty estimation from seismic data using recurrent neural networks [C]// 88th Annual International Meeting, SEG. Anaheim: Society of Exploration Geophysicists, 2018: 2141-2146.

[本文引用: 1]

ALWON S. Generative adversarial networks in seismic data processing [C]// 88th Annual International Meeting, SEG. Anaheim: Society of Exploration Geophysicists, 2018: 1991-1995.

[本文引用: 1]

LI H, YANG W, YONG X. Deep learning for ground-roll noise attenuation [C]// 88th Annual International Meeting, SEG. Anaheim: Society of Exploration Geophysicists, 2018: 1981-1985.

王钰清, 陆文凯, 刘金林, 等

基于数据增广和CNN的地震随机噪声压制

[J]. 地球物理学报, 2019, 62 (1): 421- 433

DOI:10.6038/cjg2019M0385      [本文引用: 1]

WANG Yu-qing, LU Wen-kai, LIU Jin-lin, et al

Random seismic noise attenuation based on data augmentation and CNN

[J]. Chinese Journal of Geophysics, 2019, 62 (1): 421- 433

DOI:10.6038/cjg2019M0385      [本文引用: 1]

HINTON G E, SALAKHUTDINOV R R

Reducing the dimensionality of data with neural networks

[J]. Science, 2006, 313 (5786): 504- 507

DOI:10.1126/science.1127647      [本文引用: 1]

SHELHAMER E, LONG J, DARRELL T

Fully convolutional networks for semantic segmentation

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39 (4): 640- 651

DOI:10.1109/TPAMI.2016.2572683      [本文引用: 1]

BADRINARAYANAN V, KENDALL A, CIPOLLA R

SegNet: adeep convolutional encoder-decoder aqrchitecture for scene segmentation

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39 (12): 2481- 2495

DOI:10.1109/TPAMI.2016.2644615     

贾文娟, 张煜东

自编码器理论与方法综述

[J]. 计算机系统应用, 2018, 27 (5): 1- 9

JIA Wen-juan, ZHANG Yu-dong

Survey on theories and methods of autoencoder

[J]. Computer Science and Applications, 2018, 27 (5): 1- 9

MASCI J, MEIER U, CIRESAN D, et al. Stacked convolutional auto-encoders for hierarchical feature extraction [C]// Artificial Neural Networks and Machine Learning–ICANN 2011. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011: 52-59.

[本文引用: 1]

BENGIO Y, COURVILLE A, VINCENT P

Representation learning: areview and new perspectives

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35 (8): 1798- 1828

DOI:10.1109/TPAMI.2013.50      [本文引用: 1]

刘洋, 李炳秀, 王典, 等

基于正则化条件的地震数据局部信噪比估计方法

[J]. 地球物理学报, 2017, 60 (5): 1979- 1987

DOI:10.6038/cjg20170529      [本文引用: 1]

LIU Yang, LI Bing-xiu, WANG Dian, et al

Local SNR estimation method based on regularization for seismic data

[J]. Chinese Journal of Geophysics, 2017, 60 (5): 1979- 1987

DOI:10.6038/cjg20170529      [本文引用: 1]

KINGMA D P, BA J. Adam: a method for stochastic optimization [J/OL]. 2014. [2019-06-11]. https://arxiv.org/abs/1412.6980v8

[本文引用: 1]

/