基于遥感图像道路提取的全局指导多特征融合网络
Global guidance multi-feature fusion network based on remote sensing image road extraction
收稿日期: 2023-03-20
Received: 2023-03-20
作者简介 About authors
宦海(1978—),男,副教授,硕导,从事人工智能研究.orcid.org/0000-0002-2158-3386.E-mail:
在遥感图像中,建筑与道路的类间相似度高,且存在阴影和遮挡,使得现有深度学习语义分割网络在分割道路时误分割率高,为此提出全局指导多特征融合网络(GGMNet)用于提取遥感图像中的道路. 将特征图分为若干个局部特征,再将全局上下文信息与局部特征相乘,强化各类别特征的提取,以降低网络对道路周边相似地物的误判率. 采用融合多阶段特征的方法准确定位道路空间,降低将其余地物识别为道路的概率. 设计自适应全局通道注意力模块,利用全局信息指导局部信息,丰富每个像素的上下文信息. 在解码阶段,设计多特征融合模块,充分利用并融合骨干网络4个阶段的特征图中的位置信息与语义信息,发掘层与层之间的关联性以提升分割精度. 使用CITY-OSM数据集、DeepGlobe道路提取数据集和CHN6-CUG数据集对网络进行训练和测试. 测试结果表明,GGMNet具有优秀的道路分割性能,降低道路误分割率的能力比对比网络强.
关键词:
Due to the high similarity between buildings and roads in remote sensing images, as well as the existence of shadows and occlusion, the existing deep learning semantic segmentation network generally has a high false segmentation rate when it comes to road segmentation. A global guide multi-feature fusion network (GGMNet) was proposed for road extraction in remote sensing images. To reduce the network’s misjudgment rate of similar features around the road, the feature map was divided into several local features, and then the features were multiplied by the global context information to strengthen the extraction of various features. The method of integrating multi-stage features was used to accurate spatial positioning of roads and reduce the probability of identifying other ground objects as roads. An adaptive global channel attention module was designed, and the global information was used to guide the local information, so as to enrich the context information of each pixel. In the decoding stage, a multi-feature fusion module was designed to make full use of the location information and the semantic information in the feature map of the four stages in the backbone network, and the correlations between layers were uncovered to improve the segmentation accuracy. The network was trained and tested using CITY-OSM dataset, DeepGlobe Road extraction dataset and CHN6-CUG dataset. Test results show that GGMNet has excellent road segmentation performance, and the ability to reduce the false segmentation rate of road segmentation is better than comparing networks.
Keywords:
本文引用格式
宦海, 盛宇, 顾晨曦.
HUAN Hai, SHENG Yu, GU Chenxi.
运用分割算法提取道路由计算机视觉(computer vision, CV)的图像分割技术发展而来. 图像分割方法大致可以分为传统算法和深度学习算法. 传统算法主要有Gabor滤波器[3]、Sobel算子[4]、分水岭算法[5]等,还有较先进的机器学习方法,如支持向量机[6](support vector machine, SVM)和随机森林[7](random forests, RF). 这些方法通过提取遥感图像中的特征,如纹理、边缘、形状等,进行图像分割从而实现目标提取. 在遥感图像中,道路表现为具有连通性的狭窄线条,有些线条覆盖整幅图像且多条道路可能存在交叉连通,待提取的特征复杂且丰富,干扰也较多,因此传统的图像分割方法很难用于道路提取. 深度学习技术在计算机视觉研究领域发展迅速,该方法自动获取图像的非线性和层次特征,可以更好地解决其他道路提取方法存在的问题. 语义分割是深度学习在图像分割领域中的主要研究方向,它能较全面地利用卷积神经网络(convolutional neural networks, CNNs)[8]从输入图像中提取图像的浅层和深层特征,实现端到端的像素级图像分割,具有较高的分割精度和效率.
学者针对高分辨率的道路图像提取提出的深度学习研究方法不少,但类间相似度高、噪声干扰多、狭窄道路难提取等难点仍有待克服[9]. Long等[10]提出不包含全连接层的全卷积网络(fully convolutional networks, FCN). FCN将CNN最后的全连接层替换为卷积层,称为反卷积,利用反卷积对最后一个卷积层的特征图进行上采样,使最后一个卷积层恢复到输入图像相同的尺寸,在预测每个像素的同时保留空间信息. FCN可以适应任意尺寸输入图像,并且通过不同层之间的跳跃连接同时确保了网络的鲁棒性和精确性,但是FCN不能充分提取上下文信息,语义分割精度较差. 基于FCN改进的U-Net[11]采用编解码的网络结构,它可以充分利用像素的位置信息,在训练集样本较少时仍可保持一定的分割精度. 残差神经网络(deep residual networks, ResNet)[12]避免了因增加网络深度造成的模型过拟合、梯度消失和梯度爆炸问题,被广泛应用于特征提取网络中. Zhao等[13]提出的金字塔场景解析网络(pyramid scene parsing network, PSPNet)使用金字塔池化模块,Chen等[14]提出的DeepLabV3+网络使用空洞空间金字塔池化(atrous spatial pyramid pooling, ASPP)获取并引入解码模块恢复便捷信息,这2个网络均提取多尺度的语义信息进行融合,提高了分割精度,但它们只关注宏观的空间位置信息,对细节方面的信息关注不足.
注意力机制使神经网络具备专注于输入图像的某些重点部分的能力. Hu等[15]提出挤压激励网络(squeeze-and-excitation networks, SE-Net),将通道注意力机制加入主干网,提升了特征提取的效率. Woo等[16]提出卷积块注意模块(convolutional block attention module, CBAM),此模块将全局最大池化加入SE模块,同时引入空间注意力机制,有效地提取了特征图内的位置相关信息. Fu等[17]提出的双重注意网络(dual attention network, DANet)使用2种类型的注意力模块,分别模拟空间维度和通道维度中的语义相互依赖性,通过对局部特征的上下文依赖关系进行建模,显著改善了分割结果. Zhang等[18]提出上下文先验网络移动语义分割的令牌金字塔转换器,设计金字塔形式的视觉转换器,平衡了分割精度与速度,减少了数据量,完成了困难样本的较快速分割.
在分割道路时使用现有的语义分割网络的效果欠佳,为此本研究提出全局指导多特征融合网络(global guide multi-feature fusion network,GGMNet),并应用于遥感图像的道路提取. GGMNet包含自适应全局通道注意力模块(adaptive globe channel attention module, AGCA)和多特征融合模块(multi-feature fusion module,MFM).
1. 数据集
采用3个数据集进行训练与测试,分别为CITY-OSM数据集[19]、DeepGlobe道路提取遥感地图数据集[20]和CHN6-CUG数据集[21]. CITY-OSM数据集使用柏林和巴黎的谷歌地图高分辨率RGB正射影像,共有825幅图像,每幅图像为2 611×2 453像素. 按照4∶1的比例随机抽取,其中660幅图像作为训练集,剩余165幅图像作为测试集. CITY-OSM数据集有背景、建筑物和道路3个类别. DeepGlobe道路提取遥感地图数据集共有6 226幅遥感图像,每幅图像为1 500
2. 全局指导多特征融合网络
2.1. 网络的整体结构
GGMNet的整体结构如图1所示. 网络的主干部分采用ResNet-50-C[22]来提取输入图像的特征. 网络保留阶段Res-1~Res-4的4个结果,并对Res-2~Res-4的结果进行上采样,获得3个与Res-1结果的尺度相同的结果,分别为
图 1
图 1 全局指导多特征融合网络的整体结构
Fig.1 Overall structure of global guide multi-feature fusion network
2.2. 自适应全局通道注意力模块
影响道路分割精度的主要原因在于网络将与道路类似的类别错误识别为道路,降低了道路的交并比(intersection over union,IoU). 道路周边的像素对道路影响很大,充分提取道路及其周边的局部信息可以提高分割精度从而降低误分割率. 本研究设计全局通道注意力模块,模块针对每个像素的上下文信息,从全局入手,指导局部信息的权重,在保证类别准确的同时,提高每条道路目标的位置准确率.
AGCA的整体结构如图2所示. 在上分支,对输入特征图
图 2
图 2 自适应全局通道注意力模块的整体结构
Fig.2 Overall structure of adaptive globe channel attention module
式中:
上分支的全局平均池化提取特征图
2.3. 多特征融合模块
深层特征和浅层特征具有不同权重的信息,浅层特征的位置信息更加丰富,深层特征的类别信息更加丰富,往往利用注意力融合模块融合深层和浅层特征. GGMNet采用MFM融合4个层的特征图. 将4层的特征图以及被AGCA处理过的第4次特征图进行Concat操作得到多层特征
如图3所示为MFM的整体结构. 将
图 3
3. 结果与分析
3.1. 实验环境及参数设置
实验在Centos7.8系统的Pytorch框架下完成,实验平台硬件为Intel I9-9900KF CPU、64-GB内存和2张具有11 GB显存的NVIDIA 2080Ti显卡,使用Mmsegmentation语义分割开源工具箱. 训练过程使用随机梯度下降优化算法作为优化器,学习衰减策略为Poly学习率衰减策略,初始学习率为0.01,最低学习率为0.000 4,损失函数为交叉熵,最大迭代次数为120 000.
3.2. 试验评价指标
平均交并比(MIoU)是语义分割领域中衡量图像分割精度的重要通用指标,是对每一类交并比求和平均的结果. IoU为预测结果和实际结果的交集和并集之比,即分类准确的正类像素数和分类准确的正类像素数与被错分类为负类的正类像素数以及被错分类为正类的负类像素数之和的比值. 评价指标的计算式分别为
式中:TP为预测正确的正样本,FP为预测错误的负样本,FN为预测错误的负样本,
3.3. 结果与分析
3.3.1. 超参数的取值对比
超参数
基于CITY-OSM数据集设置
表 1 基于CITY-OSM数据集的自适应全局通道注意力模块超参数取值对比
Tab.1
% | ||||
方法 | IoU | MIoU | ||
背景 | 建筑物 | 道路 | ||
基准网络 | 83.44 | 48.61 | 76.30 | 69.45 |
83.86 | 51.36 | 77.06 | 70.76 | |
83.78 | 51.82 | 76.88 | 70.83 | |
83.71 | 50.43 | 77.06 | 70.40 | |
84.03 | 53.02 | 77.16 | 71.40 | |
83.65 | 52.64 | 76.51 | 70.94 |
图 4
图 4 基于CITY-OSM数据集的超参数取值可视化结果对比
Fig.4 Comparison of hyperparameter-value visualization results based on CITY-OSM dataset
基于DeepGlobe数据集设置
表 2 基于DeepGlobe数据集的自适应全局通道注意力模块超参数取值对比
Tab.2
% | |||
方法 | IoU | MIoU | |
背景 | 道路 | ||
基准网络 | 98.06 | 62.24 | 80.15 |
98.06 | 62.37 | 80.22 | |
98.08 | 62.58 | 80.33 | |
98.10 | 62.45 | 80.28 | |
98.10 | 62.80 | 80.45 | |
98.06 | 62.44 | 80.25 |
图 5
图 5 基于DeepGlobe数据集的超参数值可视化结果对比
Fig.5 Comparison of hyperparameter-value visualization results based on DeepGlobe dataset
基于CHN6-CUG数据集设置
表 3 基于CHN6-CUG数据集的自适应全局通道注意力模块超参数取值对比
Tab.3
% | |||
方法 | IoU | MIoU | |
背景 | 道路 | ||
基准网络 | 97.12 | 60.13 | 78.63 |
97.16 | 60.22 | 78.69 | |
97.24 | 60.62 | 78.93 | |
97.25 | 60.52 | 78.86 | |
97.29 | 61.94 | 79.62 | |
97.16 | 60.37 | 78.77 |
图 6
图 6 基于CHN6-CUG数据集的超参数值可视化结果对比
Fig.6 Comparison of hyper parameter-value visualization results based on CHN6-CUG dataset
由3个数据集的实验结果可以看出,当设置s=4时,AGCA拥有最好的性能. 此时AGCA可以帮助网络利用图像的全局信息指导局部信息,并且分析道路周边的像素类别以减少误分割率,提高分割准确率.
3.3.2. 模块有效性分析
以ResNet50-C加上ASPP模块的网络作为基准网络进行模块有效性分析. 在基准网络以后添加AGCA和解码器中的MFM后,测试模块的有效性. 设置3个消融实验来测试模块有效性. 实验1在基准网络的基础上添加AGCA. 实验2在实验1的基础上添加MFM,但只融合Res-1和Res-4的特征图(浅层特征和深层特征). 实验3在实验1的基础上,将4个阶段的特征图全部进行融合,形成最终的全局指导多特征融合网络. 实验中统一设置
表 4 基于CITY-OSM数据集的模块有效性分析
Tab.4
% | ||||
方法 | IoU | MIoU | ||
背景 | 建筑物 | 道路 | ||
基准网络 | 83.44 | 48.61 | 76.30 | 69.45 |
+AGCA | 84.03 | 53.02 | 77.16 | 71.40 |
+AGCA+MFM(Res-1,Res-4) | 84.12 | 53.76 | 77.18 | 71.69 |
+AGCA+MFM | 84.31 | 54.99 | 77.68 | 72.33 |
图 7
图 7 基于CITY-OSM数据集的模块有效性分析可视化结果对比
Fig.7 Comparison of visualization results for module validity analysis based on CITY-OSM dataset
如表5所示为基于DeepGlobe数据集对基准网络分别添加不同模块时的分割精度. 实验1中,在添加AGCA后,相比于基准网络,道路的IoU提高了0.56个百分点,网络的MIoU提高了0.30个百分点,证明了AGCA的有效性. 实验2中,道路的IoU相较于实验1提高了0.12个百分点,网络的MIoU提高了0.06个百分点,证明了融合深层特征与浅层特征可以帮助网络提高精度. 实验3中,道路的IoU相较于实验1提高了0.31个百分点,网络的MIoU提高了0.18个百分点,此结果说明多特征融合可以充分利用特征图中的位置信息和类别信息,提升网络的分割性能. 实验的可视化结果对比结果如图8所示,在添加AGCA后,道路更加鲜明,边缘更加清晰,道路误分割率降低;在添加MFM后,分割结果更接近标签图,误分割比重进一步减少,这与表5的数值结果一致.
表 5 基于DeepGlobe数据集的模块有效性分析
Tab.5
% | |||
方法 | IoU | MIoU | |
背景 | 道路 | ||
基准网络 | 98.06 | 62.24 | 80.15 |
+AGCA | 98.10 | 62.80 | 80.45 |
+AGCA+MFM(Res-1, Res-4) | 98.10 | 62.92 | 80.51 |
+AGCA+MFM | 98.14 | 63.11 | 80.63 |
如表6所示为基于CHN6-CUG数据集对基准网络分别添加不同模块时的分割精度. 实验1中,在添加AGCA后,相比于基准网络,道路的IoU提升了1.81个百分点,网络的MIoU提高了0.99个百分点,证明了此模块的有效性. 实验2中,道路的IoU相较于实验1提高了0.22个百分点,网络的MIoU提高了0.10个百分点,证明了深层特征与浅层特征的有效性,也证明了MFM的有效性. 实验3中,道路的IoU相比于实验1提高了1.27个百分点,网络的MIoU相比于实验1提高了0.67个百分点,证明了融合4个阶段的特征可以帮助网络收集更丰富的位置信息与类别信息,提升分割的精确度. 实验的可视化结果对比结果如图9所示. 可以看出,基准网络的道路比标签图粗,误分割道路较高,在添加AGCA后,道路形状更接近标签图,道路边缘更清晰;在添加MFM后,误分割情况更少,这与表6的数值结果一致.
表 6 基于CHN6-CUG数据集的模块有效性分析
Tab.6
% | |||
方法 | IoU | MIoU | |
背景 | 道路 | ||
基准网络 | 97.12 | 60.13 | 78.63 |
+AGCA | 97.29 | 61.94 | 79.62 |
+AGCA+MFM(Res-1, Res-4) | 97.28 | 62.16 | 79.72 |
+AGCA+MFM | 97.37 | 63.21 | 80.29 |
图 8
图 8 基于DeepGlobe数据集模块的有效性分析可视化结果对比
Fig.8 Comparison of visualization results for module validity analysis based on DeepGlobe dataset
图 9
图 9 基于CHN6-CUG数据集模块的有效性分析可视化结果对比
Fig.9 Comparison of visualization results for module validity analysis based on CHN6-CUG dataset
由以上3个数据集的实验结果可以看出,AGCA可以利用全局信息指导局部信息,减少误分割率;MFM可以融合4个阶段的特征以利用特征图中的位置信息和类别信息提升网络的分割准确率.
3.3.3. 网络对比与分析
对比不同网络在道路提取中的性能,使用DeepLabV3[23]、APCNet[24]、CCNet[25]、DANet、EMANet[26]、DNLNet[27]、CRANet[28]、SANet[29]与所提网络进行对比. APCNet融合多尺度、自适应和全局指导局部亲和力3个要素设计网络,道路分割性能较好;DANet通过建模通道注意力和空间注意力来提取特征;EMANet设计期望最大化注意力机制(EMA),摒弃在全图上计算注意力图的流程,转而通过期望最大化(EM)算法迭代出一组紧凑的基,在这组基上运行注意力机制,大大降低了复杂度;DNLNet设计解耦non-local模块,增加通道间的位置信息的交互,增加了道路分割的精确度和效率;CRANet通过使用级联的残差注意力模块来提取遥感图像中边界细化的道路,该结构利用多尺度特征上的空间注意残块来捕获长距离关系,并引入通道注意里模块来优化多尺度特征融合,并且设计轻量级编码器-解码器网络,以自适应优化提取的道路边界.
基于CITY-OSM数据集的网络分割性能对比结果如表7所示. GGMNet的道路IoU=77.68%,MIoU=72.33%,优于其他的语义分割网络,与SANet的分割效果接近. GGMNet的另外2个类别的IoU也高于其他网络. GGMNet的道路IoU比DNLNet的高0.56个百分比,比EMANet高0.65个百分比,证明了网络在道路提取方面的有效性. 实验结果表明,网络整体分割效果好,从图像中提取的信息丰富,可以更好地进行特征融合. 实验的可视化对比结果如图10所示. 可以看出,GGMNet的道路分割情况优于其他网络,比SANet的分割情况略好. 在参与对比的网络中,GGMNet的道路最为清晰,连通状况最好,其余网络的误分割情况较为严重,将零散的背景类中颜色较深的阴影错误识别为道路,GGMNet的误分割情况最少,分割结果最好,这与表7的数据结果一致.
表 7 基于CITY-OSM数据集不同网络的分割性能对比
Tab.7
% | ||||
网络 | IoU | MIoU | ||
背景 | 建筑物 | 道路 | ||
DeepLabV3 | 83.44 | 48.61 | 76.30 | 69.45 |
APCNet | 83.75 | 49.42 | 76.77 | 69.98 |
CCNet | 83.32 | 52.76 | 76.50 | 70.86 |
DANet | 81.76 | 47.61 | 73.04 | 67.47 |
EMANet | 83.76 | 53.34 | 77.03 | 71.38 |
DNLNet | 83.95 | 53.00 | 77.12 | 71.36 |
CRANet | 83.29 | 51.35 | 76.84 | 70.49 |
SANet | 84.26 | 54.78 | 77.55 | 72.20 |
GGMNet | 84.31 | 54.99 | 77.68 | 72.33 |
图 10
图 10 不同网络基于CITY-OSM数据集的分割结果对比
Fig.10 Segmentation results comparison of different networks based on CITY-OSM dataset
基于DeepGlobe数据集的网络分割性能对比结果如表8所示. 可以看出,GGMNet的MIoU=80.63%,是最优结果,道路的IoU=63.11%,也是最优结果;SANet的道路MIoU次优,道路的IoU也为次优. 这些结果证明了GGMNet的有效性,GGMNet在道路提取方面比其他网络精度更高,通过全局信息指导局部信息,并融合位置信息与类别信息使分割结果更准确. 实验的可视化对比结果如图11所示. 在标签图中,方框区域没有道路,观察原图可以发现,此区域为农田与农田边界,农田边界与道路的相似度极高,极易被误分割为道路. 在其他网络的分割结果中,农田边界都被判定为道路,而GGMNet未出现误分割情况. GGMNet中的AGCA通过全局信息对局部信息的指导,识别出农田边界为背景类别而非道路类别,提高了分割精确性. 这与表8的数据结果一致.
表 8 基于DeepGlobe数据集不同网络的分割性能对比
Tab.8
% | |||
网络 | IoU | MIoU | |
背景 | 道路 | ||
DeepLabV3 | 98.06 | 62.24 | 80.15 |
APCNet | 98.03 | 59.78 | 78.91 |
CCNet | 98.09 | 61.77 | 79.93 |
DANet | 97.98 | 61.77 | 79.88 |
EMANet | 98.06 | 61.45 | 79.76 |
DNLNet | 98.10 | 62.19 | 80.15 |
CRANet | 98.05 | 62.04 | 80.04 |
SANet | 98.15 | 63.05 | 80.60 |
GGMNet | 98.14 | 63.11 | 80.63 |
图 11
图 11 不同网络基于DeepGlobe数据集的分割结果对比
Fig.11 Segmentation results comparison of different networks based on DeepGlobe dataset
基于CHN6-CUG数据集的网络分割性能对比结果如表9所示. 可以看出,GGMNet的表现最好,拥有最优的分割结果. GGMNet的道路IoU=63.21%,MIoU=80.29%,比次优的SANet稍好,优于其他分割网络的结果. 说明针对道路提取,GGMNet可以充分利用特征图的信息以获得更精确的分割结果. 实验的可视化对比结果如图12所示. 可以看出,SANet,DNLNet,GGMNet的分割效果较好,其余道路都有较严重的道路断连情况和形状问题. GGMNet中的道路连通性最好、最完整,也与标签图中的道路形状最接近,证明了GGMNet在道路提取方面的有效性与优越性. 这与表9的数据结果一致.
表 9 基于CHN6-CUG数据集不同网络的分割性能对比
Tab.9
% | |||
网络 | IoU | MIoU | |
背景 | 道路 | ||
DeepLabV3 | 97.12 | 60.13 | 78.63 |
APCNet | 97.24 | 61.90 | 79.57 |
CCNet | 97.26 | 61.58 | 79.42 |
DANet | 97.23 | 60.44 | 78.83 |
EMANet | 97.18 | 62.04 | 79.61 |
DNLNet | 97.32 | 62.50 | 79.91 |
CRANet | 97.32 | 62.88 | 80.10 |
SANet | 97.35 | 63.08 | 80.22 |
GGMNet | 97.37 | 63.21 | 80.29 |
通过以上3个数据集的实验结果可以看出,在参与对比的网络中,GGMNet可以在其他网络误分割率较高的情况下,维持较低的误分割率,并且保证道路的连通性,道路尺度也更接近标签图,可以完成分辨率较高的遥感图像道路提取任务.
图 12
图 12 不同网络基于CHN6-CUG数据集的分割结果对比
Fig.12 Segmentation results comparison of different networks based on CHN6-CUG dataset
4. 结 语
本研究就遥感图像道路提取任务提出全局指导多特征融合网络GGMNet,有效解决了道路提取误分割率高的问题. 详细介绍了GGMNet的网络结构和设计思路,以及各个模块的主要作用. 设计了自适应全局通道注意力模块(AGCA),利用全局上下文信息指导局部特征对各类别地物的特征提取;设计了多特征融合模块(MFM)来融合多阶段特征图的特征. 将多阶段特征图与被AGCA处理后的Res-4阶段的特征图用MFM进行融合,使每阶段的位置信息与类别信息得到充分利用,提高分割精度. 在CITY-OSM数据集、DeepGlobe道路提取数据集和CHN6-CUG道路数据集上的实验结果表明,GGMNet的分割性能优秀,可以将图片中道路较为完整地提取出来,误分割率低,在参与对比的网络中分割性能最好. 本研究在训练语义分割网络时,对输入图像进行了简单的预处理(如旋转、翻折),在处理道路相关的数据时,这些操作有可能使特征没有被充分利用. 在未来的工作中,将尝试利用如形态学、图像直方图的图像处理算法进行训练图像的预处理,提升特征提取网络对特征的利用效率,以提高分割精度.
参考文献
A low-grade road extraction method using SDG-DenseNet based on the fusion of optical and SAR images at decision level
[J].DOI:10.3390/rs14122870 [本文引用: 1]
基于Gabor和改进 LDA的人耳识别
[J].
An ear recognition algorithm based on gabor features and improved LDA
[J].
基于Sobel算子数字图像的边缘检测
[J].
Edge detection of Sobel-based digital image
[J].
随机森林理论浅析
[J].
A brief theoretical overview of random forests
[J].
Recent advances in convolutional neural networks
[J].DOI:10.1016/j.patcog.2017.10.013 [本文引用: 1]
Road extraction by deep residual U-Net
[J].DOI:10.1109/LGRS.2018.2802944 [本文引用: 1]
Learning aerial image segmentation from online maps
[J].DOI:10.1109/TGRS.2017.2719738 [本文引用: 1]
A global context-aware and batch-independent network for road extraction from VHR satellite imagery
[J].DOI:10.1016/j.isprsjprs.2021.03.016 [本文引用: 1]
Cascaded residual attention enhanced road extraction from remote sensing images
[J].
Strip attention networks for road extraction
[J].DOI:10.3390/rs14184516 [本文引用: 1]
/
〈 |
|
〉 |
