浙江大学学报(工学版), 2025, 59(2): 261-268 doi: 10.3785/j.issn.1008-973X.2025.02.004

计算机技术

基于改进YOLOv5的SAR图像有向舰船目标检测算法

薛雅丽,, 贺怡铭, 崔闪, 欧阳权

1. 南京航空航天大学 自动化学院,江苏 南京 211106

2. 上海机电工程研究所,上海 201109

Oriented ship detection algorithm in SAR image based on improved YOLOv5

XUE Yali,, HE Yiming, CUI Shan, OUYANG Quan

1. College of Automation Engineering, Nanjing University of Aeronautics and Astronautics, Nanjing 211106, China

2. Shanghai Electro-Mechanical Engineering Institute, Shanghai 201109, China

收稿日期: 2024-03-13  

基金资助: 国家自然科学基金资助项目(62073164);国家重点研发计划资助项目(2023YFB3907703);上海航天科技创新基金资助项目(SAST2022-013).

Received: 2024-03-13  

Fund supported: 国家自然科学基金资助项目(62073164);国家重点研发计划资助项目(2023YFB3907703);上海航天科技创新基金资助项目(SAST2022-013).

作者简介 About authors

薛雅丽(1974—),女,副教授,从事飞行器自适应控制、多智能体协同控制及目标识别的研究.orcid.org/0000-0002-6514-369X.E-mail:xueyali@nuaa.edu.cn , E-mail:xueyali@nuaa.edu.cn

摘要

针对合成孔径雷达 (SAR) 小目标成像特征不显著、目标具有任意朝向易出现漏检、检测精度较低的问题,提出面向SAR舰船小目标的ES-YOLOv5检测算法. 添加小目标检测层调整感受野大小,更适应小目标尺度特征,方便进行多尺度融合. 引入EMA注意力机制重点关注目标关键信息,强化特征的表达能力. 使用圆平滑标签(CSL)技术适应角度的周期性,实现了对角度的高精度分类. 实验结果表明,在RSDD-SAR数据集上,该方法在交并比阈值为0.5时的平均检测精度达到90.9%,在提高SAR舰船小目标检测精度方面比基准算法YOLOv5提高了6%,显著改善了模型的检测性能.

关键词: 合成孔径雷达(SAR) ; 舰船图像 ; 旋转检测 ; 注意力机制 ; YOLOv5

Abstract

A novel detection algorithm (efficient multi-scale attention (EMA) and small object detection based on YOLOv5, ES-YOLOv5) was proposed by targeting small ship targets in SAR scenes aiming at the issues of inconspicuous imaging features and low detection accuracy caused by arbitrary orientation of small targets in synthetic aperture radar (SAR) imaging. A small target detection layer was added to adjust the receptive field size, making it more suitable for capturing small target scale features and facilitating multi-scale fusion. An EMA mechanism was introduced to focus on key target information and enhance feature representation capability. The circular smooth label (CSL) technique was utilized to adapt to the periodicity of angles, achieving high-precision angle classification. The experimental results demonstrate that the proposed method achieves an average detection accuracy of 90.9% at an intersection over union (IoU) threshold of 0.5 on the RSDD-SAR dataset. The algorithm outperforms the baseline algorithm YOLOv5 by 6% in improving the precision of detecting small SAR ship targets, significantly enhancing the model’s detection performance.

Keywords: synthetic aperture radar (SAR) ; ship image ; rotated detection ; attention mechanism ; YOLOv5

PDF (2761KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

薛雅丽, 贺怡铭, 崔闪, 欧阳权. 基于改进YOLOv5的SAR图像有向舰船目标检测算法. 浙江大学学报(工学版)[J], 2025, 59(2): 261-268 doi:10.3785/j.issn.1008-973X.2025.02.004

XUE Yali, HE Yiming, CUI Shan, OUYANG Quan. Oriented ship detection algorithm in SAR image based on improved YOLOv5. Journal of Zhejiang University(Engineering Science)[J], 2025, 59(2): 261-268 doi:10.3785/j.issn.1008-973X.2025.02.004

海上情报的精确获取对军事防卫至关重要,海域舰船目标检测作为监测领域的关键技术之一,须不断更新以应对日益复杂的海上威胁. 传统光学监测方法易受天气和光线因素的制约,SAR系统具备在云层遮挡、雨、雾等复杂气象环境下有效运行的能力,在海洋领域中应用广泛. SAR图像的特殊成像原理使图像上舰船小目标边缘模糊,细节信息难以被捕捉,导致检测效果不佳,因此提高SAR图像检测精度是当前研究的重要方向.

SAR图像传统检测方法主要基于图像处理和手工提取特征进行浅层学习来实现[1],在处理大规模数据量时效率较低. 在复杂战场环境中,将智能算法应用于目标检测,能够有效地对各类目标进行精准打击[2]. 为了避免图像预处理、目标鉴别的中间步骤[3],直接通过逐层学习和自主提取特征[4]的方法从原始图像中获取更多的目标信息,使得目标检测算法应对复杂场景问题时具有良好的鲁棒性[5],深度学习[6]中的卷积神经网络开始得到重视. 高云龙等[7]在YOLO模型中添加空洞注意力模块来强化特征表示能力,取得了检测精度和检测速度的平衡. Yasir等[8]在YOLOv5的基础上增加C3架构和注意力机制,在多种数据集上均取得了较好的检测结果. 由于SAR图像的舰船方向任意且多为细长型目标,水平框在近岸场景下易引入背景杂波,导致目标漏检、误检. 为了应对这一难题,研究人员开始采用基于定向边界框的方法描述舰船的轮廓. 富强等[9]在YOLOv5网络的各层增加了SENet[10]和CBAM[11]注意力模块,改进SAR近岸目标检测的精度. He等[12]使用极坐标编码检测SAR船舶,解决斜框回归的边界不连续问题. Sun等[13]提取SAR图像中的强散射点并聚合为船舶的旋转框,设计嵌入向量模块有效捕获目标多尺度信息,以提高定位精度.

在SAR图像大视场下,小目标边缘模糊使得模型难以获得目标区域的有效特征表征[14],现有的大多算法对小尺寸目标信息利用不充分,任意方向舰船旋转角度的预测仍有一定的误差,小目标仍有一些漏检情况,在融合多层级特征方面仍有提升空间. 针对常规特征提取方法无法准确学习SAR图像舰船小目标特征这一实际问题,本文从便于推广部署通用化研究出发,以技术较成熟、应用广泛的YOLOv5模型为基础进行改进,在网络颈部添加小目标检测层,引入EMA注意力机制[15]. 基于定向框的有向检测部分将角度预测转化为角度分类,采用圆平滑标签方法[16]对角度进行平滑处理,使得角度预测更准确. 实验结果表明,本文提出的ES-YOLOv5算法在RSDD-SAR数据集[17]上相较于原始模型,检测精度有较明显的提升.

1. ES-YOLOv5网络模型

1.1. 模型整体结构

ES-YOLOv5改进网络的结构具体如图1所示,由骨干特征提取网络 (backbone)、颈部特征融合网络 (neck) 和输出最终检测结果的4个检测头 (head) 3个部分组成.

图 1

图 1   ES-YOLOv5的结构图

Fig.1   Architecture of ES-YOLOv5


根据文献[18],采用针对RSDD-SAR数据集的目标划分方法:尺寸小于625的舰船目标被归为小目标,目标面积为625~7 500的视为中目标,其余被看作大目标. 在SAR图像中,大部分舰船目标都属于小目标范畴,特征较模糊复杂,对模型准确学习和识别目标带来一定的挑战. 通过给网络添加小目标检测层,网络结构得到了优化. 引入的注意力机制增强了模型对重要信息的关注程度,提升了检测性能. 通过将两者融合,新网络改善了SAR图像小目标检测的准确性和鲁棒性.

1.2. 小目标检测层

采用不同尺度的特征层进行目标检测,能够提供从细节到整体的信息,增强对目标的精确定位和识别能力. 初始YOLOv5网络结构中包含$80 \times 80$$40 \times 40$$20 \times 20$ 3个特征图,每个特征图分别由一组尺度不同的锚框进行目标检测. $80 \times 80$表示浅层的特征图,包含较多的低层级信息,所用的锚框尺寸较小. $40 \times 40$特征图采用中等大小的锚框,能够在平衡细节和全局信息的基础上进行有效检测. $20 \times 20$特征图使用较大尺寸的锚框,是网络深层次提取的特征,包含更多的高层级信息,如目标轮廓、形状和结构等.

由于SAR图像中的大部分舰船目标面积较小,仅3组特征层不能很好地提取到舰船的小目标浅层特征,通过卷积、上采样和与第2层输出拼接等步骤,在原始网络的第16层增加了$160 \times 160$小目标检测层,以解决高层特征中小目标信息丢失的问题,如图1的“小目标层”虚线框部分所示. 新设一组更小的锚框用于新增检测层,丰富模型对小目标的感知范围,提取更浅层卷积特征,捕获舰船小目标的细节信息(见表1). 将22、26、30和34层的输出结果送入Detect部分进行预测,输出目标位置和预测概率.

表 1   ES-YOLOv5网络的锚框尺寸

Tab.1  Anchor size of ES-YOLOv5 network

锚框尺寸特征图大小
$ (4 \times 5)(8 \times 10)(22 \times 18) $$160 \times 160$
$ (10 \times 13)(16 \times 30)(33 \times 23) $$80 \times 80$
$ (30 \times 61)(62 \times 45)(59 \times 119) $$40 \times 40$
$ (116 \times 90)(156 \times 198)(373 \times 326) $$20 \times 20$

新窗口打开| 下载CSV


1.3. EMA注意力机制

引入EMA注意力机制以增强特征选择的针对性,减少对无关背景的处理,从而确保模型将注意力集中在最有利于预测目标的特征上.

EMA模块主要分为3个部分,分别是特征分组、并行子网和跨空间学习,结构如图2所示. 沿着通道维度方向将输入$X$分为$G$个子特征,使得空间语义特征在每个特征组内均匀分布,每个子特征的形状为$[C/G,H,W]$. 其中$C$为输入通道的个数,$H$$W$分别为输入特征的空间高度和宽度,$C/G$取整除结果. 随后为聚合多尺度的空间结构信息,避免网络有更多的顺序处理和更深的深度,将$1 \times 1$分支和$3 \times 3$分支并行放置. $1 \times 1$分支分别沿2个空间方向进行全局平均池化操作后使用同一$1 \times 1$卷积,而不进行维度缩减. 在输出因式分解2个向量后,使用2个非线性Sigmoid函数拟合卷积上的分布,通过简单的乘法聚合组内的通道注意力图. 在$3 \times 3$分支中堆叠一个$3 \times 3$卷积核,用来捕获局部通道交互,以扩大特征空间. 这样能够编码跨通道信息,还可以将精确的空间结构信息保留到通道中. 为了实现更丰富的特征聚合,利用跨空间学习方法对并行子网得到的结果进行全局空间信息编码后,再次使用Sigmoid函数拟合线性变换并进行矩阵点积运算,分别得到2个空间注意力图. 将每组内的输出特征映射计算为生成的2个空间注意力权重的集合,捕获图像每个像素与周围像素间的关系,突出显示了整个图像的语义和结构信息.

图 2

图 2   EMA模块的结构图

Fig.2   Structure of EMA module


将EMA模块嵌入在Neck颈部网络的C3模块和卷积Conv模块之间(具体见图1),实现了全局语义信息的结合,使得特征聚合更丰富,解决小目标检测层过度关注细节信息而忽略全局信息的问题.

1.4. 旋转框的定义和CSL方法

采用长边定义五参数回归法作为旋转框定义方式,如图3所示. 旋转框标注记为$ ({x_{\mathrm{c}}},{y_{\mathrm{c}}},h,w,\theta ) $,其中旋转框中心点坐标为$ ({x_{\mathrm{c}}},{y_{\mathrm{c}}}) $,长边为$ h $,短边为$ w $, $ \theta $$ x $轴正方向与旋转框长边之间的夹角,$\theta \in [ - \text{π} /2,\text{π} /2)$,顺时针旋转为正,反之为负.

图 3

图 3   旋转框的定义

Fig.3   Definition of rotated bounding box


垂直框在回归为旋转框时,可能会出现旋转角度超出长边定义法的定义范围问题,这会导致边界损失的突增. 为了限制预测角度的范围,将角度预测转化为分类问题,消除边界条件的影响. 在角度真值为89°的情况下,当预测角度为0°或−90°时,它们与真值间距离是相同的,损失应相同,但传统的角度分类方法由于计算所得损失时未考虑预测标签与真实标签间的角度距离,可能导致模型认为0°比−90°更接近实际角度,不利于角度回归的计算. 引入CSL方法,如图4所示. 采用周期性圆形标签编码的方式,将离散度设置为1,即一度为一个类别,共180个类别. 设置高斯函数作为窗口函数,对预测角度与真实角度进行平滑处理,以衡量角度距离. 越接近真实角度,类别对应的权重越高,从而实现更鲁棒性的角度预测. CSL的表达式如下:

图 4

图 4   CSL圆平滑标签

Fig.4   Circular smoothing label


$ {\mathrm{CSL}}\left( {{\theta _i}} \right) = \left\{ {\begin{array}{*{20}{c}} {{\mathrm{exp}}\left( { - {{{{\left( {{\theta _i} - \theta } \right)}^2}}}/{{(2{r^2})}}} \right)},\;\theta - r < {\theta _i} < \theta +r; \\ {0,\;其他.} \end{array}} \right. $

式中:$ \theta $为当前旋转框的真实角度;$ {\theta _i} $$[ - \text{π} /2,\text{π} /2)$的180个角度;$r$为高斯窗口函数的半径,表示平滑处理的角度范围. 从式(1)可知,越接近真实角度,$ {\mathrm{CSL}}\left( {{\theta _i}} \right) $越接近1,则预测角度所对应的预测概率越大,损失越小,消除了角度周期性带来的问题.

1.5. 损失函数

对旋转框直接进行回归,会导致模型在边界处出现不稳定的情况,增加训练的复杂性,需要更多的数据来保证模型的性能. 通过CSL方法将角度问题转化为分类问题后,角度信息与边界框参数信息可以进行解耦,因此边界框回归损失部分可以采用原始的CIoU损失函数计算,角度分类和类别分类均采用二元交叉熵损失函数计算损失. 角度的微小偏差会对有向边界框的交并比(intersection over union, IoU)产生较大的影响,在有向目标检测下使用垂直边界框参数计算置信度会影响非极大值,抑制算法的效果,导致检测精度下降,因此改为采用旋转IoU来作为置信度分支的权重系数. 优化后的网络模型损失由4个部分构成,分别是类别损失${L_{{\text{cls}}}}$、边界框回归损失${L_{{\text{box}}}}$、置信度损失${L_{{\text{obj}}}}$和角度分类损失${L_{{\text{angle}}}}$. 整体损失的计算公式如下所示:

$ L = {L_{{\mathrm{cls}}}}+{L_{{\mathrm{box}}}}+{L_{{\mathrm{obj}}}}+{L_{{\mathrm{angle}}}}. $

2. 实验数据集与评价指标

RSDD-SAR数据集包含不同的成像方式和多种极化方式,分辨率为3~25 m. 图像切片尺寸为$512 \times 512$,通道数为3. 数据集共有7 000张图像切片,包含舰船目标10 263个. 舰船目标的旋转方向任意,在−90°~90°的旋转角度范围内呈现出相对均匀的分布状态,长宽比较大,为1.5~7.5. 随机选取其中的5 000张图像用作训练集,余下的2 000张图像用作测试集. 依据文献[18]的划分范围可知,RSDD-SAR数据集的小目标所占比例为59.88%,中目标所占比例为40.04%,几乎没有大目标. 由于小目标的比例显著,该数据集较适合用于提出的算法进行实验.

实验平台为Ubutun18.04系统,显卡为NVIDIA GeForce RTX 2080,显存为11 GB,深度学习框架为Pytorch 1.8.1,CUDA版本11.1. 训练时运行200个轮次,batch size为2,采用Adam优化器(optimizer),将初始学习率设置为0.001,采用线性学习率(linear learning rate)衰减策略对学习率进行调整,将权重衰减(weight decay)设置为0.0005. 当计算角度分类损失时,将正、负样本的权重之比设置为1.0,角度分类损失的权重为0.1. 训练集和测试集图像的尺寸统一为$512 \times 512$. 设置CSL高斯窗口函数的半径$r = 2$,偏移为0.

采用准确率P (precision)、召回率R (recall)和平均精确度AP (average precision) 中的${\text{A}}{{\text{P}}_{50}}$作为综合评价指标,评估舰船检测的效果.

准确率指分类器预测为正类别的样本中,实际为正类别的比例;召回率指实际为正类别的样本中,被分类器预测为正类别的比例. PR的计算公式如下所示:

$ P = \frac{{{\mathrm{TP}}}}{{{\mathrm{TP}}+{\mathrm{FP}}}}, $

$ R = \frac{{{\mathrm{TP}}}}{{{\mathrm{TP}}+{\mathrm{FN}}}}. $

二分类结果如表2所示.

表 2   二分类结果的混淆矩阵

Tab.2  Confusion matrix for binary classification result

预测类别真实类别
正样本负样本
正样本${\mathrm{TP}}$${\mathrm{FP}}$
负样本${\mathrm{FN}}$${\mathrm{TN}}$

新窗口打开| 下载CSV


平均精确度是通过准确率-召回率曲线在每个阈值下的精确度进行加权平均来计算的,使用召回率的增量作为权重. ${\mathrm{A}}{{\mathrm{P}}_{50}}$为交并比阈值设成0.5时的平均准确率,计算公式如下:

$ {\mathrm{AP}} = \sum\limits_{n = 1}^m {\left( {{R_n} - {R_{n - 1}}} \right)} {P_n}. $

式中:$ {R_n} $为第$n$个召回率,$ {P_n} $为第$n$个召回率下的准确率,$m$表示共有$m$个召回率.

3. 检测实验与结果分析

3.1. 对比实验

为了探索注意力机制在网络改进前、后的有效性,在共有4层目标检测层的基础上,设计仅在$80 \times 80$$40 \times 40$$20 \times 20$ 3个特征层位置处添加EMA模块,在$160 \times 160$特征层处不加EMA注意力模块的网络,记为A;将提出的改进网络ES-YOLOv5记为B. 如表3所示为A、B 2种注意力机制添加方式的检测结果. 可知,4个特征层均添加EMA的网络表现更出色.

表 3   网络A、B的检测结果

Tab.3  Detection result of network A and B

网络类型$P$/%$R$/%${\mathrm{A}}{{\mathrm{P}}_{50}}$/%
A79.579.580.4
B89.884.790.9

新窗口打开| 下载CSV


为了验证提出算法的检测效果,在保证算法训练数据集相同的条件下,与表4的先进方法进行比较,对应的P-R曲线如图5所示. 其中,Rotated FCOS[19]和BBAVectors[20]均采用无锚框方法,Oriented RCNN[21] 、FADet[22]和本文方法均采用预设锚框. 表4中,加粗部分表示最优结果. 从表4可知,本文方法的准确率和召回率虽然没有FADet方法高,但${\mathrm{A}}{{\mathrm{P}}_{50}}$综合了准确率、召回率及边界框重叠度IoU,在IoU = 0.5条件下的平均检测精度比最优的FADet检测方法提升了0.1%,说明提出的模型预测位置准确性更好. ES-YOLOv5作为单阶段目标检测器,超参数比FADet双阶段目标检测器少,更易于模型的调整和部署,因此本文的改进方法具有一定的有效性.

表 4   不同算法在RSDD-SAR数据集上的实验结果

Tab.4  Experimental result of different algorithm on RSDD-SAR dataset

模型$P$/%$R$/%${\mathrm{A}}{{\mathrm{P}}_{50}}$/%
Rotated FCOS86.684.386.5
Oriented RCNN84.982.688.6
BBAVectors85.883.689.1
FADet94.394.790.8
本文方法89.884.790.9

新窗口打开| 下载CSV


图 5

图 5   不同算法在RSDD-SAR数据集上的P-R曲线

Fig.5   P-R curve of different algorithm on RSDD-SAR dataset


3.2. 消融实验分析

以YOLOv5为初始模型,采用预训练权重YOLOv5s.pt,在RSDD-SAR数据集上进行多组实验. 通过添加不同的模块,对比这些模块对检测精度的影响,验证了所提方法的优越性.

表5中,“√”表示添加对应内容,空白表示未添加,加粗部分表示最优结果. 如表5所示,当仅添加小目标检测层时,与原始YOLOv5网络模型相比,准确率略有下降,但平均精确度有所提升,证明添加的小目标检测层对小目标的检测有一定作用. 当仅添加EMA时,检测结果大幅下降,这可能是注意力机制错误地忽略了重要特征或强化了无用特征,导致模型性能被削弱. 将2种方法进行融合,充分利用二者优势后,准确率、召回率均有所提升,在交并比为0.5的条件下,平均精确度比原始网络高6%,实现了更优的检测效果.

表 5   消融实验的分析

Tab.5  Analysis of ablation experiment

小目标检测层EMA$P$/%$R$/%${\mathrm{A}}{{\mathrm{P}}_{50}}$/%
88.980.684.9
79.384.186.4
72.075.068.2
89.884.790.9

新窗口打开| 下载CSV


图6所示为不同模型在近岸、远景、高分辨率和低分辨率情况下的测试情况,其中低分辨率图片上圆圈框出的为漏检目标. 在近岸场景下,除提出的ES-YOLOv5模型外的其他模型均有较多误检的情况. 在远海岸场景下,ES-YOLOv5模型无论是在高分辨率还是在低分辨率条件下,预测分数都较高,有效缓解了低分辨率条件下舰船小目标的漏检情况.

图 6

图 6   引入不同检测模块的算法可视化对比结果

Fig.6   Visual comparison of algorithmic performance with different detection module


4. 结 语

本文提出ES-YOLOv5改进模型用于SAR图像中舰船小目标的有向检测. 在原始网络结构的基础上,本研究针对舰船目标的特征提取进行进一步的优化,通过增加更小的特征层,以更细致的方式捕获舰船小目标的浅层特征信息,有助于增强网络对舰船小目标的敏感性,提高检测的精度和鲁棒性. 为了更好地适应不同尺度的舰船目标,引入一组更小的锚框尺寸,以适应新增的特征层. 网络Neck部分所引入的注意力模块EMA在前两步改进措施的基础上,丰富了网络对目标特征的表达效果. 采用圆平滑标签的方法解耦角度预测和边界框回归,提高角度预测的准确性. 在RSDD-SAR数据集进行的实验结果表明,提出的ES-YOLOv5改进方法具有一定的优越性.

参考文献

XING X W, CHEN Z L, ZOU H X, et al. A fast algorithm based on two-stage CFAR for detecting ships in SAR images [C]// Asian-Pacific Conference on Synthetic Aperture Radar . Xi'an: IEEE, 2009: 506-509.

[本文引用: 1]

范晋祥, 刘益吉, 李宁, 等

精确打击体系智能化的发展

[J]. 空天防御, 2023, 6 (4): 1- 11

DOI:10.3969/j.issn.2096-4641.2023.04.001      [本文引用: 1]

FAN Jinxiang, LIU Yiji, LI Ning, et al

Development of the intelligentization of precision strike system of systems

[J]. Air and Space Defense, 2023, 6 (4): 1- 11

DOI:10.3969/j.issn.2096-4641.2023.04.001      [本文引用: 1]

张天文. 基于深度学习的SAR图像舰船检测及识别技术研究[D]. 成都: 电子科技大学, 2022.

[本文引用: 1]

ZHANG Tianwen. Research on deep learning-based SAR ship detection and recognition technology [D]. Chengdu: University of Electronic Science and Technology of China, 2022.

[本文引用: 1]

田东. 基于卷积神经网络的深度学习算法研究与实现[D]. 上海: 上海交通大学, 2017.

[本文引用: 1]

TIAN Dong. Design and implementation of deep learning algorithm based on convolutional neural network [D]. Shanghai: Shanghai Jiao Tong University, 2017.

[本文引用: 1]

王昌安. 遥感影像中的近岸舰船目标检测和细粒度识别方法研究[D]. 武汉: 华中科技大学, 2019.

[本文引用: 1]

WANG Changan. Detection and fine-grained recognition of inshore ships on optical remote sensing images [D]. Wuhan: Huazhong University of Science and Technology, 2019.

[本文引用: 1]

KRIZHEVSKY A, SUTSKEVER I, HINTON G E

Imagenet classification with deep convolutional neural networks

[J]. Advances in Neural Information Processing Systems, 2017, 60 (6): 84- 90

[本文引用: 1]

高云龙, 任明, 吴川, 等. 基于注意力机制改进的无锚框SAR图像舰船检测模型[EB/OL]. [2024-10-10]. https://doi.org/10.13229/ j.cnki.jdxbgxb20221367.

[本文引用: 1]

YASIR M, LIU Shanwei, XU Mingming, et al.

Multi scale ship target detection using SAR images based on improved Yolov5

[J]. Frontiers in Marine Science, 2023, 9: 2296- 7745

[本文引用: 1]

富强, 杨威, 陈杰, 等

基于YOLOv5的近岸SAR舰船目标检测方法

[J]. 上海航天(中英文), 2022, 39 (3): 67- 76

[本文引用: 1]

FU Qiang, YANG Wei, CHEN Jie, et al

Detection method for nearshore SAR ship images based on YOLOv5

[J]. Aerospace Shanghai (Chinese and English), 2022, 39 (3): 67- 76

[本文引用: 1]

HU J, SHEN L, SUN G. Squeeze-and-excitation networks [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 7132-7141.

[本文引用: 1]

WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module [C]// European Conference on Computer Vision . Munich: Springer, 2018: 3-19.

[本文引用: 1]

HE Yishan, GAO Fei, WANG Jun, et al

Learning polar encodings for arbitrary-oriented ship detection in SAR images

[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 3846- 3859

DOI:10.1109/JSTARS.2021.3068530      [本文引用: 1]

SUN Yuanrui, SUN Xian, WANG Zhirui, et al

Oriented ship detection based on strong scattering points network in large-scale SAR images

[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1- 18

[本文引用: 1]

徐丰, 王海鹏, 金亚秋. 合成孔径雷达图像智能解译[M]. 北京: 科学出版社, 2020: 143-167.

[本文引用: 1]

OUYANG Daliang, HE Su, ZHANG Guozhong, et al. Efficient multi-scale attention module with cross-spatial learning [C]// International Conference on Acoustics . Rhodes Island: IEEE, 2023: 1-5.

[本文引用: 1]

YANG Xue, YAN Junchi

On the arbitrary-oriented object detection: classification based approaches revisited

[J]. International Journal of Computer Vision, 2022, 130 (5): 1340- 1365

DOI:10.1007/s11263-022-01593-w      [本文引用: 1]

徐从安, 苏航, 李健伟, 等

RSDD-SAR: SAR舰船斜框检测数据集

[J]. 雷达学报, 2022, 11 (4): 581- 599

DOI:10.12000/JR22007      [本文引用: 1]

XU Congan, SU Hang, LI Jianwei, et al

RSDD-SAR: rotated ship detection dataset in SAR images

[J]. Journal of Radars, 2022, 11 (4): 581- 599

DOI:10.12000/JR22007      [本文引用: 1]

ZHANG Tianwen, ZHANG Xiaoling, LI Jianwei, et al

SAR ship detection dataset (SSDD): official release and comprehensive data analysis

[J]. Remote Sensing, 2021, 13 (18): 3690

DOI:10.3390/rs13183690      [本文引用: 2]

TIAN Zhi, SHEN Chunhua, CHEN Hao, et al. FCOS: fully convolutional one-stage object detection [C]// IEEE/CVF International Conference on Computer Vision . Seoul: IEEE, 2019: 9626-9635.

[本文引用: 1]

YI Jingru, WU Pengxiang, LIU Bo, et al. Oriented object detection in aerial images with box boundary-aware vectors [C]// IEEE Winter Conference on Applications of Computer Vision . Waikoloa: IEEE, 2021: 2149-2158.

[本文引用: 1]

XIE Xingxing, CHENG Gong, WANG Jiabao, et al. Oriented R-CNN for object detection [C]// IEEE/CVF International Conference on Computer Vision . Montreal: IEEE, 2021: 3520-3529.

[本文引用: 1]

WAN Huiyao, CHEN Jie, HUANG Zhixiang, et al. Orientation detector for ship targets in SAR images based on semantic flow feature alignment and Gaussian label matching [J] IEEE Transactions on Geoscience and Remote Sensing , 2023, 61: 1-16.

[本文引用: 1]

/