Deep Network for SAR Target Recognition Based on Attribute Scattering Center Convolutional Kernel Modulation
-
摘要: 卷积神经网络(CNN)的特征提取能力与其参数量有关,一般来说,参数量越多,CNN的特征提取能力越强。但要学好这些参数需要大量的训练数据,而在实际应用中,可用于模型训练的合成孔径雷达(SAR)图像往往是有限的。减少CNN的参数量可以降低对训练样本的需求,但同时也会降低CNN的特征表达能力,影响其目标识别性能。针对此问题,该文提出一种基于属性散射中心(ASC)卷积核调制的SAR目标识别深层网络。由于SAR图像具有电磁散射特性,为了提取更符合SAR目标特性的散射结构和边缘特征,所提网络使用预先设定的具有不同指向和长度的ASC核对少量CNN卷积核进行调制以生成更多卷积核,从而在降低网络参数量的同时保证其特征提取能力。此外,该网络在浅层使用ASC调制卷积核来提取更符合SAR图像特性的散射结构和边缘特征,而在高层使用CNN卷积核来提取SAR图像的语义特征。由于同时使用ASC调制卷积核和CNN卷积核,该网络能够兼顾SAR目标的电磁散射特性和CNN的特征提取优势。使用实测SAR图像进行的实验证明了所提网络可以在降低对训练样本需求的同时保证优秀的SAR目标识别性能。
-
关键词:
- 合成孔径雷达(SAR) /
- 目标识别 /
- 卷积神经网络(CNN) /
- 属性散射中心(ASC) /
- 卷积核调制
Abstract: The feature extraction capability of Convolutional Neural Networks (CNNs) is related to the number of their parameters. Generally, using a large number of parameters leads to improved feature extraction capability of CNNs. However, a considerable amount of training data is required to effectively learn these parameters. In practical applications, Synthetic Aperture Radar (SAR) images available for model training are often limited. Reducing the number of parameters in a CNN can decrease the demand for training samples, but the feature expression ability of the CNN is simultaneously diminished, which affects its target recognition performance. To solve this problem, this paper proposes a deep network for SAR target recognition based on Attribute Scattering Center (ASC) convolutional kernel modulation. Given the electromagnetic scattering characteristics of SAR images, the proposed network extracts scattering structures and edge features that are more consistent with the characteristics of SAR targets by modulating a small number of CNN convolutional kernels using predefined ASC kernels with different orientations and lengths. This approach generates additional convolutional kernels, which can reduce the network parameters while ensuring feature extraction capability. In addition, the designed network uses ASC-modulated convolutional kernels at shallow layers to extract scattering structures and edge features that are more consistent with the characteristics of SAR images while utilizing CNN convolutional kernels at deeper layers to extract semantic features of SAR images. The proposed network focuses on the electromagnetic scattering characteristics of SAR targets and shows the feature extraction advantages of CNNs due to the simultaneous use of ASC-modulated and CNN convolutional kernels. Experiments based on the studied SAR images demonstrate that the proposed network can ensure excellent SAR target recognition performance while reducing the demand for training samples. -
1. 引言
合成孔径雷达(Synthetic Aperture Radar, SAR)是一种有源微波传感器,其通过将一个小尺寸天线沿直线进行运动来合成等效的大尺寸天线,从而实现二维高分辨率成像。SAR不仅能够实现全天时、大范围地表的远距离高分辨率成像,且其成像不受光线、云雾等气候条件的限制,并且具有一定的地物穿透能力。因此,SAR技术已经在国防安全、农业生产估算、地质勘测等军民领域中发挥着日益重要的作用。作为SAR图像解译的重要步骤之一,SAR目标识别旨在对输入的目标区域判断其所属类别,其在民用和军事等诸多领域均具有不可估量的应用价值,受到了世界各国的广泛关注与深入研究,并取得了丰富的研究成果。
随着大规模数据集的出现和计算机处理能力的增长,深层网络在目标识别领域得到了广泛的研究与应用。为了模仿人脑的认知机制,深层网络构建了一个多层次的模型结构来实现多层非线性变换,从而将原始数据映射到更适合识别的特征空间来提高目标识别的性能。卷积神经网络(Convolutional Neural Network, CNN)[1−6]作为一种典型的用于图像分类的深层网络,通过一个统一的框架实现特征提取和分类,具有强大的特征学习能力。现有研究表明,通过卷积运算学习到的深层特征对不同类型的目标具有更强的分辨力[1]。目前,CNN已经成为SAR目标识别领域的一种主流方法。Chen等人[7]构建了一个仅包含卷积层的SAR目标识别网络A-ConvNet,该方法通过去除全连接层降低了网络参数量,在一定程度上可以缓解CNN因训练数据不足而导致的过拟合问题。喻玲娟等人[8]提出一种基于全卷积神经网络和改进卷积自编码器的SAR目标识别方法,具有较强的抗噪性能。赵鹏菲等人[9]利用EfficientNet[4]提取的SAR目标的空间特征,并进一步利用循环神经网络提取图像序列的时序特征,实现了SAR目标的鲁棒识别。Huang等人[10]提出了一种用于SAR目标识别的轻型CNN,其包括全局支路和局部支路,以结合多层次的特征进行目标识别。Liu等人[11]设计了用于SAR图像识别的复卷积网络,并将SAR图像的电磁散射特性与浅层卷积层的初始化相结合,提升了识别效果。Zhang等人[12]将传统手工梯度直方图特征与深度网络特征融合,设计了适用于舰船SAR目标的识别网络。Qosja等人[13]将ConvNeXt[14]用于SAR目标识别任务,并验证了部分数据扩充方法对于SAR数据的适用性。张翼鹏等人[15]构建了提取视觉特征和拓扑特征的双分支卷积神经网络,用于小样本舰船分类任务。
上述基于CNN的SAR目标识别方法能够根据训练数据自动提取适合分类的特征,避免了传统手工特征需要依赖人工经验的缺点。但是,CNN的特征提取能力与其参数量有关,一般来说,参数量越多,CNN的特征提取能力越强,但需要大量的训练数据对参数进行训练。由于实际采集高质量的SAR图像需要昂贵的设备和资源,因此获取高质量的SAR图像相比于光学图像更加困难。此外,SAR图像的相干成像机制会导致一些问题,如SAR图像中目标会发生几何畸变和结构缺失、SAR图像对观测参数敏感等,使得建立完备的SAR目标识别数据集更为困难。因此,在实际应用中,用于SAR目标识别的训练样本数量往往有限,使得网络在训练过程中易发生严重的过拟合,从而影响网络的特征提取能力,导致识别性能的下降。为了解决该问题,一方面,可以使用数据扩充技术,然而现有方法大多将光学领域的数据扩充方法直接应用于SAR图像,这种做法的适用性难以保证,可能会产生不符合SAR图像特性的扩充结果,影响SAR目标识别性能。另一方面,减少CNN的参数量可以降低对训练样本的需求,但同时也会降低CNN的特征表达能力,影响其目标识别性能。因此,设计一个适用于有限训练数据量、能够有效提取SAR图像特征的SAR目标识别深层网络具有重要意义。
为直观理解CNN从图像中学习的具体内容,文献[16]以在ImageNet数据集上训练的AlexNet[1]为例,对其第1层的卷积核进行可视化,直观展示了第1层卷积核所提取的线性结构和边缘特征。而SAR图像是基于电磁后向散射原理得到的,与光学图像相比,其具有离散、不连续性[17],其在图像中的显著结构包含散射结构和边缘特征,因此对SAR图像提取其中的散射结构和边缘特征时需要结合其电磁散射特性进行考虑。属性散射中心(Attributed Scattering Center, ASC)模型[18,19]采用7个参数描述每个散射中心的特性,蕴藏了丰富的物理以及几何属性,精确刻画了目标的真实散射机理,能够准确建模高分辨SAR图像的目标散射特性,因此,本文提出一种基于ASC卷积核调制的SAR目标识别深层网络,旨在通过结合SAR目标的电磁散射特性设计更简单的网络结构来提取更符合SAR图像特性的特征,从而在降低网络参数量的同时保证网络的特征提取能力。具体来说,所提方法在网络的浅层使用了ASC调制卷积核,用以提取更符合SAR图像特性的散射结构和边缘特征,而在网络的高层使用CNN本身的卷积核,用以提取SAR图像的语义特征。其中,ASC调制卷积核使用预先设定的具有不同指向和长度的ASC核对CNN本身的卷积核进行调制,该操作可以利用少量可学习卷积核生成更多的卷积核,从而在降低网络参数量的同时保证网络的特征提取能力。由于整个网络同时使用了ASC调制卷积核和CNN本身的卷积核,因此该网络能够兼顾SAR目标的电磁散射特性和CNN的特征提取优势,进一步降低对训练样本的需求。基于MSTAR实测数据集的实验结果表明,本文所设计的网络可以在降低对训练样本需求的同时保证优秀的目标识别性能。
2. 属性散射中心模型
由于SAR图像是基于电磁后向散射原理得到的,与光学图像相比,其具有独特的电磁散射特性。当雷达工作在高频区时,可以近似认为分布式目标的散射场是由构成该目标的各散射中心的散射场累加而成的[18]。ASC模型是一种经典的散射中心模型,其描述了SAR目标的后向散射对频率和方位的依赖性,其模型参数包含丰富的物理和几何属性,可以更准确地表征雷达目标在高频区的电磁散射特性,因而得到了广泛的关注与应用。分布式目标在高频区的散射场可以表示为
E(f,φ;Θ)=K∑i=1Ei(f,φ;θi) (1) 其中,f 代表雷达频率;
φ 代表方位角;Θ 代表散射中心的参数集;K代表目标中包含的散射中心总数。对于一个ASC,其散射场可以用式(2)的ASC模型来表示[18]:Ei(f,φ;θi)=Ai⋅(jffc)αi⋅exp(−j4πfc(xicosφ+yisinφ))⋅sinc(2πfcLisin(φ−ˉφi))⋅exp(−2πfγisinφ) (2) 其中,
fc 表示雷达的中心频率;j表示虚数单位;c代表电磁波的传播速度,即光速;sinc(⋅)=sin(⋅)/sin(⋅)(⋅)(⋅) 表示sinc 函数;第i个ASC的属性参数可以表示为θi=[Ai,αi,xi,yi,Li,ˉφi,γi](i=1,2,⋯,K) ;Ai 表示后向散射系数,为复数值;αi 表示频率依赖因子,描述了ASC的后向散射幅度对频率的依赖性;xi 和yi 分别表示ASC在距离维和方位维上的位置坐标;Li 表示分布式ASC的长度;ˉφi 表示分布式ASC的指向;γi 表示方位依赖因子,描述了ASC的后向散射幅度对方位的依赖性。若第i个ASC为局部式ASC,则其满足Li=ˉφi=0 ;若第i个ASC为分布式ASC,则其满足γi=0 ,Li>0 。3. 方法介绍
3.1 网络结构与流程
图1展示了本文设计的基于ASC卷积核调制的SAR目标识别深层网络的结构图。从图1可以看出,该网络包含5个卷积层和2个全连接层。由于SAR图像是基于电磁后向散射原理得到的,与光学图像相比,具有独特的电磁散射特性,因此对SAR图像提取特征时应该考虑其电磁散射特性,以提取更符合SAR目标特性的特征。考虑到CNN的浅层负责提取图像中的低级结构特征,所提方法在前两个卷积层使用本文设计的ASC调制卷积核,以提取更符合SAR图像特性的散射结构和边缘特征。后3个卷积层依然使用CNN卷积核,以保证提取更具鉴别性的语义特征。在经过5个卷积层后,所提方法将提取的卷积特征经过两个全连接层映射为与类别数相同的维度,然后将其送入softmax层,完成对输入图像的识别。整个网络使用交叉熵损失函数以端到端的方式进行训练,并使用随机梯度下降法来更新网络参数。
接下来,本文将对所设计的基于ASC卷积核调制的SAR目标识别深层网络中的ASC调制卷积核的生成过程、ASC调制卷积核的卷积过程以及ASC调制卷积核的参数更新过程分别进行详细介绍。
3.2 ASC调制卷积核的生成过程
由于SAR图像是基于电磁后向散射原理得到的,与光学图像相比,其具有独特的电磁散射特性。当雷达工作在高频区时,可以近似认为分布式目标的散射场是由构成该目标的各散射中心的散射场累加而成的[18]。因此,为了提取更符合SAR图像特性的散射结构和边缘特征,本文设计了ASC调制卷积核。该卷积核是用预先设定好的一组ASC核对CNN的可学习卷积核进行调制得到的,这样可以在只学习一小组CNN卷积核的情况下,通过ASC调制得到更多的卷积核,从而可以在降低参数量的同时保证CNN的特征提取能力。
为了得到ASC调制卷积核,首先需要预先生成一组ASC核。由第2节可知,每个ASC都包含7个属性参数,表示为
θ=[A,α,x,y,L,ˉφ,γ] 。为了生成ASC核,本文首先将每个ASC置于核中心,即令x=y=0 ,然后将散射中心的幅度归一化,即令A=1 。由于所提方法希望用ASC提取更适合SAR图像的散射结构和边缘特征,因此本文采用分布式ASC,即令γ = 0,L>0 。另外,文献[20]对ASC模型的参数进行了分析,对于高分辨率SAR图像,其带宽相对于载频通常较小,此时α 对目标后向散射场的幅度影响很小,所以可以将α 近似为0。此时,只剩下L和ˉφ 这两个参数待确定,其中,L表示分布式ASC的长度,ˉφ 表示分布式ASC的指向。为了从SAR图像中提取不同方向的散射结构和边缘特征,本文令ˉφ 在[−90∘,90∘] 之间均匀取值,假设共取M个值,则可以得到M个不同指向的分布式ASC。而L的取值则由图像的空间分辨率以及CNN的卷积核尺寸共同决定,其中空间分辨率表示输入图像中相邻两个像素点所代表的实际距离。假设空间分辨率为m,卷积核的尺寸为r×r ,则L=p×m(p=1,2,⋯,r−1) 。在CNN中,卷积核尺寸越大,其感受野越大,对于SAR图像来说,大的感受野可以在一定程度上缓解斑点噪声的影响,但是卷积核尺寸越大也会增加网络待学习的参数量,因此在本文设计的网络中,所有卷积层都采用
5×5 的卷积核。以MSTAR数据集[21]为例,其空间分辨率为0.3m×0.3m ,因此,对于5×5 的卷积核,L的取值可以为[0.3,0.6,0.9,1.2] 。考虑到ˉφ 的取值越多,得到的分布式ASC的指向越丰富,但同时也会增加网络的参数量,因此本文综合考虑参数量和指向丰富性,令M=4 ,即ˉφ=[−45∘,0∘,45∘,90∘] 。根据L和ˉφ 的组合,可以得到一组5×5 的ASC核,如图2所示。由于所提方法希望通过ASC调制核提取更符合SAR图像特性的散射结构和边缘特征,因此预设的ASC核中的分布式ASC的长度不应太短,同时又为了保证ASC核中分布式ASC的完整性,结合图2的可视化结果,最终选择L = 0.9 ,ˉφ=[−45∘,0∘,45∘,90∘] 对应的ASC核作为预设的一组ASC核,如图2中红框所示。由于最终选定的ASC核是一组具有不同指向的ASC核,为了将指向信息编码进ASC调制核中,所提方法采用三维的CNN卷积核进行调制。三维CNN卷积核的尺寸可以表示为
N×W×W ,其中W×W 表示卷积核的尺寸,N表示其通道数。结合前面的分析,本文采用的三维CNN卷积核的W=5 ,N=4 。一个ASC调制卷积核是用一组预设的具有不同指向的ASC核对可学习的三维CNN卷积核调制而成,用图2中红框选中的ASC核对三维CNN卷积核的具体调制过程如图3和式(3)所示。ACi,m=Ci∘A(m) (3) 其中,
ACi,m 表示第i个ASC调制卷积核的第m个方向通道,m=1,2,3,4 ;Ci 表示第i个可学习的三维CNN卷积核;A(m) 表示预设的一组具有不同指向的ASC核(对复数ASC核进行取模操作得到实数ASC核)中的第m个ASC核,其表达式如式(2)所示;∘ 表示A(m) 与Ci 中的每个通道对应元素相乘。第i个ASC调制卷积核又可以表示为ACi=(ACi,1,ACi,2,ACi,3,ACi,4) (4) 由式(4)可以看出,第i个ASC调制卷积核
ACi 实际上是4个三维卷积核,如图3所示。对于一个ASC调制卷积核,其尺寸可以表示为U×N×W×W ,其中U表示指向通道数,本文得到的ASC调制卷积核的U=4,N=4,W=5 。但是,对于每一个ASC调制卷积核,由于ASC核为预先设定好的,因此只需要更新其中可学习的三维CNN卷积核的参数,即N×W×W ,这意味着通过这种调制过程,所提方法可以在不增加参数量的前提下学习到更适合SAR目标的描述能力更强的特征。且预设的ASC核本身具有多个指向,因此ASC调制卷积核经过训练可以自动提取不同方位角下目标图像特征用于识别。3.3 ASC调制卷积核的卷积过程
在本文设计的网络中,ASC调制卷积核也用来生成特征图,与传统CNN卷积核生成的特征图相比,ASC调制卷积核能够提取更符合SAR图像特性的散射结构和边缘特征。由于ASC调制卷积核是4个三维卷积核,因此对于一幅单通道的二维输入图像,应先将其进行通道扩展,变成
1×4×Si×Si 的形式,其中1表示输入图像为单通道,4表示扩展通道数,扩展后的通道将用来对方向信息进行编码,因此将其称为方向通道,Si 表示输入图像的尺寸。对于一幅输入图像,使用一个ASC调制卷积核生成的特征图ˆF 可以表示为ˆF=AConv(F,ACi) (5) 其中,AConv表示ASC调制卷积操作,F表示输入图像;
ACi 表示第i个ASC调制卷积核。式(5)表示的卷积过程如图4所示,So 表示输出图像的尺寸。输出特征图ˆF 的第k个通道可以表示为ˆFk=4∑n=1F(n)∗AC(n)i,m (6) 其中,
F(n) 表示F的第n个方向通道;AC(n)i,m 表示第i个ASC调制卷积核的第m个方向通道中的第n个核;∗ 表示卷积操作。由式(6)可以看出,输出特征图ˆF 的每个通道都对应了预设的ASC核中不同的指向,通过这种卷积操作,所提方法可以将指向信息编码进特征图中。由于在网络中,每个卷积层的输入一般均为多通道特征图,因此,为了表示一个使用ASC调制卷积核的卷积层的完整卷积过程,本节假设某个卷积层的输入特征图的维度为
5×4×Si×Si ,其中5表示输入特征图为5通道,4表示方向通道数,Si 表示输入特征图的尺寸;假设该卷积层共使用10组ASC调制卷积核,由于卷积核的通道数需与输入特征图的通道数相等,因此该卷积层的卷积核维度为10×5×4×4×5×5 ,其中10表示卷积核的组数,5表示卷积核的通道数,4×4×5×5 表示每个ASC调制卷积核的维度。由于预设ASC的调制作用,该层卷积层的可学习参数为10×5×(4×5×5+1) ,仅为传统卷积层可学习参数量的四分之一。该卷积层对应的完整卷积过程如图5所示,So 表示输出特征图的尺寸。3.4 ASC调制卷积核的参数更新过程
虽然ASC调制卷积核是用ASC核对CNN卷积核调制得到的,但由于ASC核是预先设定好的,因此在反向传播过程中,只需要更新其中可学习的CNN卷积核
Ci 的参数。与传统CNN卷积核的更新类似,ASC调制卷积核的更新准则也采用随机梯度下降和链式法则,其参数更新公式如下所示:δ=∂L∂Ci=4∑m=1∂L∂Ci,m∘ACi,m (7) Ci=Ci−ηδ (8) 其中,L表示网络的损失函数;
η 表示网络的学习率。4. 实验结果与分析
本节首先介绍实验中采用的数据集、评价准则以及部分相关的实验细节;然后将所提方法与一些现有的基于深度学习的SAR目标识别方法的性能进行比较,以验证所提方法的有效性;最后进行了模型分析,包括预设的ASC核的相关参数对识别性能的影响以及不同训练样本数对识别性能的影响。所有实验代码均基于Ubuntu系统下的Pytorch进行编写。
4.1 实验数据集介绍
本文中SAR目标识别实验采用的数据集是MSTAR实测数据集[21]和OpenSARShip舰船数据集[22]。MSTAR数据集由工作在X波段的雷达采集得到,包含10类不同的地面军事目标,每幅图像都为复值SAR图像,其分辨率为
0.3m×0.3m ,图像尺寸为128像素×128像素。图6展示了10类不同地面目标的SAR图像及其对应的光学图像示例。与光学图像相比,SAR图像的视觉可分性较差。MSTAR数据集中SAR图像的方位角为
0∘~360∘ ,训练集由俯仰角为17°的SAR图像构成,测试集由俯仰角为15°的SAR图像构成。参考文献[23−25],多数SAR目标识别方法都是基于3类7型子数据集和10类14型子数据集进行验证,这两类子数据集的具体信息分别如表1和表2所示。在这两类子数据集中,测试样本包含部分未出现在训练样本中的变体型号,导致其识别难度更大,对于模型的特征提取能力要求更高。表 1 MSTAR的3类7型子数据集的具体信息Table 1. The detailed information of three-target MSTAR data类别 型号 训练样本数 测试样本数 BMP2 SNC21 233 196 SN9563 0 195 SN9566 0 196 BTR70 C71 233 196 T72 SNS7 0 191 SN132 232 196 SN812 0 195 表 2 MSTAR的10类14型子数据集的具体信息Table 2. The detailed information of ten-target MSTAR data类别 训练样本数 测试样本数 BTR60 255 195 2S1 299 274 BRDM2 298 274 D7 299 274 T62 299 273 ZIL131 299 274 ZSU23/4 299 274 BMP2 233 587 BTR70 233 196 T72 232 582 OpenSARShip舰船数据集包含了11346张从哨兵1号SAR图像中截取的舰船切片,如图7所示,该数据集的背景更为复杂,包含海杂波、舰船尾迹、干扰船只、礁石等背景干扰等,且舰船目标本身具有类内差异大、类间差异相对小的特性,使得OpenSARShip数据集对于识别方法更具挑战性,更加考验模型的特征提取能力。
OpenSARShip舰船数据集包含两类图像产品,本文选取了地距影像(Ground Range Detected, GRD)用于实验,其空间分辨率为
10m×10m 。由于各类别样本数量极不均衡,因此本文选取了样本数量较多的Cargo, Fishing, Tanker类别用于识别实验,用于识别的3类数据集信息如表3所示。表 3 OpenSARShip的3类数据集具体信息Table 3. The detailed information of three-target OpenSARShip data类别 训练样本数 测试样本数 Cargo 241 159 Fishing 92 23 Tanker 115 76 4.2 评价准则和实验细节
为了验证本文设计的基于ASC卷积核调制的SAR目标识别深层网络的有效性,本文采用正确分类的概率(Probability of Correct Classification, PCC)来衡量各方法的目标识别性能,其计算公式如下:
PCC=Nc∑i=1TriNc∑i=1Qi (9) 其中,
Tri 表示第i类测试样本中被正确识别的样本数;Qi 表示第i类测试样本的总数;Nc 表示类别总数。PCC值越大表示识别性能越好。本文所设计的网络采用小批量随机梯度下降法进行训练,批尺寸为16,动量参数设为0.9,权值衰减因子设为0.0005,初始学习率设为0.005,且每隔100个epoch将学习率变为原来的0.1倍。训练epoch总数为500,以确保网络完全收敛。
4.3 识别性能比较
为了验证本文所设计的基于ASC卷积核调制的SAR目标识别深层网络的有效性,本节将其与一些现有的基于深度学习的SAR目标识别方法的性能进行比较,包括文献[7]提出的A-ConvNet、文献[2]提出的VGG16、文献[3]提出的ResNet34以及文献[26]提出的基于部件解析的多尺度SAR目标识别网络(CA-MCNN)。其中A-ConvNet, VGG16以及ResNet34是3种基于CNN的SAR目标识别方法,但在原始文献中,为了得到更好的性能,这两种方法都采用了数据扩充技术。然而,现有的应用于SAR图像的数据扩充方法往往是直接采用了光学图像领域中的数据扩充方法,这种做法难以保证对SAR图像的适用性。同时,在实际应用中,选择何种扩充方式以及样本扩充数量难以确定。这些问题可能会导致不合适的扩充结果,从而影响SAR目标识别性能。相比之下,本文设计的网络并不存在这些问题,因为所提方法不需要通过数据扩充技术来保证识别性能。因此,为了保证公平性,本文根据文献[2,3,7]提供的网络结构和参数,在不进行数据扩充的条件下得到这3种方法的识别结果,并将其与本文所提方法的识别结果进行比较。CA-MCNN将SAR目标的ASC视为其部件,利用网络将由整幅SAR图像提供的全局信息与对应于目标ASC的部件信息相结合以得到更加稳健且描述能力更强的特征,同时,该网络还利用了多尺度特征图的融合以增强全局特征图的描述能力,从而进一步增强最终得到的融合特征的描述能力。此外,本节将与本文所设计的网络具有相同网络结构,但所有卷积层都使用传统的二维CNN卷积核的网络作为BaseNet,同样将其性能与本文所设计网络的性能进行对比。相比于图1中的所提方法,BaseNet不需要进行通道扩展,且前两层卷积层的卷积核个数等于对应层的ASC调制卷积核组数乘以方向通道数,以获得与所提方法相同数量的特征图。
本节分别基于3类7型MSTAR子数据集、10类14型MSTAR子数据集和OpenSARShip 3类舰船数据集对比了所提网络与上述方法的识别性能。
4.3.1 基于3类7型MSTAR子数据集的识别实验
本节将讨论所设计的基于ASC卷积核调制的SAR目标识别网络对3类7型MSTAR子数据集的有效性,表4展示了不同方法对3类7型MSTAR子数据集的识别性能以及各方法的参数量。
表 4 不同方法对3类7型MSTAR子数据集的识别性能以及各方法参数量Table 4. Recognition performance of different methods on three-target MSTAR data and the number of parameters of each method方法 参数量 PCC VGG16 6.51×107 0.9319 ResNet34 2.13×107 0.9253 A-ConvNet 3.03×105 0.9385 BaseNet 2.27×106 0.9495 CA-MCNN 6.52×106 0.9861 所提方法 2.26×106 0.9875 从表4可以看出,本文设计的网络的PCC可以达到0.9875。首先,所提方法的PCC高于VGG16和ResNet34,这是由于VGG16和ResNet34的参数量较大,需要利用大量的数据进行训练,但本文使用的3类7型子数据集中包含的训练样本数量有限,且实验并未采用数据扩充技术,因此无法保证VGG16和ResNet34的特征提取能力。另外,在3类7型子数据集中,其测试数据中包含未在训练数据中出现过的变体型号,这进一步增加了对该数据集识别的难度,因此,VGG16和ResNet34对3类7型子数据集的识别性能并不理想。而本文设计的网络具有更少的参数,其对训练样本的需求更低,因此更适合训练样本数量有限的3类7型MSTAR子数据集。其次,所提方法的PCC也高于A-ConvNet的PCC,这是由于CNN的特征提取能力与其参数量有关,一般来说,参数量越多,CNN的特征提取能力越强,因此虽然A-ConvNet具有最少的参数,其对训练样本的需求相对更低,但过少的参数也降低了其特征提取能力,导致其对3类7型MSTAR子数据集的识别性能依然不够理想。而本文设计的网络使用了ASC调制卷积核,能够提取更符合SAR图像特性的散射结构和边缘特征,因此其能够取得更好的识别性能。此外,与BaseNet相比,本文设计的网络不仅具有更少的参数,同时也具有更高的PCC,这是因为所提方法使用的ASC调制卷积核可以在只学习一小组CNN卷积核的情况下,通过ASC调制得到更多的卷积核,从而可以在降低参数量的同时保证CNN的特征提取能力,且ASC调制可以有效提升网络的识别效果,其作用不会随着迭代的过程消失。最后,从表4可以看出,由于能够利用SAR目标的图像信息和ASC信息来学习描述能力更强的特征,CA-MCNN的PCC高于其他对比方法,但与该方法相比,本文设计的网络不仅不需要对每张SAR图像提取ASC,而且具有更少的参数和更高的PCC,这也说明本文设计的基于ASC卷积核调制的SAR目标识别深层网络在实现更加简单的情况下识别性能依然具有优势。此外,对表4所提方法与对比方法的参数量和性能进行对比可以发现,与VGG16和ResNet34相比,所提方法不仅大幅降低了参数量,且显著提升了识别性能;与A-ConvNet和BaseNet相比,所提方法能够在参数量相当的情况下显著提升识别性能;而对于CA-MCNN来说,表4给出的只是网络的参数量,但该方法还需要对每张SAR图像提取ASC,与其相比,本文所提方法能够在性能相当的情况下,大大降低参数量。综上所述,通过结合SAR目标的电磁散射特性,相比对比方法,所提方法能够在参数量相当的情况下大幅提升识别性能,或者在识别性能相当的情况下大幅降低参数量。
基于3类7型MSTAR子数据集的实验结果证明了本文所设计的网络的有效性,其可以通过使用ASC调制卷积核提取更符合SAR目标特性的散射结构和边缘特征,从而在降低网络参数量的同时保证网络的特征提取能力,进一步降低了对训练样本的需求。
4.3.2 基于10类14型MSTAR子数据集的识别实验
本节将进一步讨论所设计的基于ASC卷积核调制的SAR目标识别深层网络对10类14型MSTAR子数据集的有效性,表5展示了不同方法对10类14型MSTAR子数据集的识别性能以及各方法的参数量。
表 5 不同方法对10类14型MSTAR子数据集的识别性能以及各方法参数量Table 5. Recognition performance of different methods on ten-target MSTAR data and the number of parameters of each method方法 参数量 PCC VGG16 6.51×107 0.9166 ResNet34 2.13×107 0.9138 A-ConvNet 3.03×105 0.9219 BaseNet 2.27×106 0.9422 CA-MCNN 6.52×106 0.9781 所提方法 2.26×106 0.9844 首先,对比表4和表5可以发现,各方法在10类14型MSTAR子数据集上的识别性能相比在3类7型MSTAR子数据集上的性能都有所下降。这是因为,对于10类14型MSTAR子数据集来说,其测试数据中不仅包含未在训练数据中出现过的变体型号,其还包含额外的7类军事目标,且每一类军事目标的训练样本都是有限的,因此,相对于3类7型MSTAR子数据集,10类14型MSTAR子数据集的识别难度更高,从而导致各方法在该子数据集上的识别性能有所下降。其次,从表5可以看出,所提方法的PCC可以达到0.9844。与表4的结果类似,所提方法的PCC不仅高于VGG16和ResNet34这两种参数量高的SAR目标识别方法,也高于A-ConvNet这种参数量低的SAR目标识别方法,同时其比BaseNet和CA-MCNN的PCC值也要高。导致该结果的原因依然是本文设计的网络使用了ASC调制卷积核,其不仅能够在只学习一小组CNN卷积核的情况下,通过ASC调制得到更多的卷积核,而且能够提取更符合SAR图像特性的散射结构和边缘特征,因此本文设计的网络可以在降低参数量的同时保证CNN的特征提取能力,从而在训练数据有限的10类14型MSTAR子数据集上取得更好的识别性能。
此外,对表5所提方法与对比方法的参数量和性能进行仔细对比可以得到与表4相同的结论,通过结合SAR目标的电磁散射特性,相比对比方法,所提方法能够在参数量相当的情况下大幅提升识别性能,或者在识别性能相当的情况下大幅降低参数量。
基于10类14型MSTAR子数据集的实验结果进一步证明了本文所设计的网络的有效性,其可以通过使用ASC调制卷积核提取更符合SAR目标特性的散射结构和边缘特征,从而在降低网络参数量的同时保证网络的特征提取能力,即便在面对包含更多目标种类的难度更大的数据集时也能取得良好的识别性能。
4.3.3 基于OpenSARShip舰船数据集的识别实验
本节将进一步讨论所设计的基于ASC卷积核调制的SAR目标识别深层网络对OpenSARShip舰船数据集的有效性。由于CA-MCNN方法需要进行ASC提取,需要使用具有真实雷达分辨率和带宽参数的复数据,而OpenSARShip舰船数据集的两类图像产品均不能满足,因此本节不使用CA-MCNN作为对比方法。表6展示了不同方法对3类OpenSARShip舰船数据集目标的识别性能以及各方法的参数量。
表 6 不同方法对OpenSARShip的3类数据集的识别性能以及各方法参数量Table 6. Recognition performance of different methods on three-target OpenSARShip data and the number of parameters of each method方法 参数量 PCC VGG16 6.51×107 0.7713 ResNet34 2.13×107 0.7403 A-ConvNet 3.03×105 0.7791 BaseNet 2.27×106 0.8062 CA-MCNN 6.52×106 – 所提方法 2.26×106 0.8101 首先,与MSTAR数据集上的识别效果对比可见,各方法在OpenSARShip舰船数据集3类目标上的识别性能相比MSTAR数据集都有所下降,这是由于OpenSARShip舰船数据集具有更复杂的背景,且舰船目标本身类内差异大、类间差异相对小,因此OpenSARShip舰船数据集的识别难度更高,从而导致各方法的识别性能的下降。此外,如表6所示,本文设计的网络对OpenSARShip 3类舰船数据集的PCC可以达到0.8101,优于对比方法。对于VGG16和ResNet34来说,OpenSARShip舰船数据集3类目标的数据量更小,难以完全训练网络中大量的参数,因此VGG16和ResNet34识别效果不佳。对于A-ConvNet,其少量的参数限制了特征提取能力,因此对于更难分的舰船目标识别性能也相对较差。最后,与BaseNet相比,所提方法依然能取得更高的PCC,说明所提方法所使用的ASC调制卷积核相比于普通卷积层可以提取更适用于SAR图像的特征,证明了所提方法的有效性。因此所提方法仍能在背景更为复杂的OpenSARShip舰船数据集上取得最佳的识别性能,说明所提方法对于复杂背景下的SAR目标识别具有鲁棒性。
4.4 模型分析
4.4.1 预设的ASC核的方向数对识别性能的影响
3.2节分析了分布式ASC的指向
ˉφ 的取值,为了从SAR图像中提取不同方向的散射结构和边缘特征,所提方法令ˉφ 在[−90∘,90∘] 之间均匀取值,假设共取M个值,则可以得到M个不同指向的分布式ASC。考虑到ˉφ 的取值越多,得到的分布式ASC的指向越丰富,但同时也会增加网络的参数量,因此所提方法综合考虑参数量和指向丰富性,令M=4 ,即ˉφ=[−45∘,0∘,45∘,90∘] 。为了进一步分析预设的ASC核的方向数对识别性能的影响,本节基于3类7型MSTAR子数据集,在表7给出了当分布式ASC的指向ˉφ 取不同的M值时的识别性能。表 7 预设的ASC核的方向数取不同的M值时对3类7型MSTAR子数据集的识别性能Table 7. Recognition performance on three-target MSTAR data under different values of M方向数M PCC 2 0.9722 3 0.9817 4 0.9875 5 0.9810 6 0.9744 从表7可以看出,预设的ASC核的方向数取不同的M值时会对识别性能产生影响,当指向数M太小时,如
M=2 时,预设的ASC核的指向不够丰富,无法提取不同方向的散射结构和边缘特征,从而会导致识别性能下降;当指向数M太大时,如M=6 时,虽然保证了预设的ASC核的丰富性,但也增加了网络的参数量,因此在训练样本有限时,也会导致识别性能的下降。如表7所示,当M=4 时,本文所设计的网络在3类7型MSTAR子数据集上取得了最高的识别性能,这是因为当M=4 时,ˉφ=[−45∘,0∘,45∘,90∘] ,既保证了预设的ASC核的指向丰富性,同时又不会导致参数量过多。综上所述,表7证明了所提方法将预设的ASC核的指向数M设置为4的合理性。4.4.2 预设的ASC核的长度值对识别性能的影响
3.2节分析了分布式ASC的长度L的取值,L的取值由图像的空间分辨率以及CNN的卷积核尺寸共同决定,由于MSTAR数据集的空间分辨率为
0.3m×0.3m ,因此,对于5×5 的卷积核,L的取值可以为[0.3,0.6,0.9,1.2] 。此外,由于所提方法希望通过ASC调制核提取更符合SAR图像特性的散射结构和边缘特征,因此预设的ASC核中的分布式ASC的长度不应太短,同时又为了保证ASC核中分布式ASC的完整性,结合图2所示的ASC核可视化结果,最终选择L = 0.9 时对应的ASC核作为预设的一组ASC核。为了进一步分析预设的ASC核的长度值对识别性能的影响,本节基于3类7型MSTAR子数据集,在表8中给出了当分布式ASC的长度L取不同值时的识别性能。表 8 预设的ASC核的长度L取不同值时对3类7型MSTAR子数据集的识别性能Table 8. Recognition performance on three-target MSTAR data under different values of L长度L PCC 0.3 0.9729 0.6 0.9788 0.9 0.9875 1.2 0.9810 从表8可以看出,预设的ASC核的长度L取不同值时会对识别性能产生影响,当长度L太小时,如
L=0.3 时,无法有效提取SAR图像中的散射结构和边缘特征,从而会导致识别性能下降;而当长度L取1.2时,如图2的ASC核可视化结果所示,无法保证ASC核中分布式ASC的完整性,因此也会对识别性能造成影响。如表8所示,当L=0.9 时,本文所设计的网络在3类7型MSTAR子数据集上取得了最高的识别性能,这是因为当L=0.9 时,既能有效提取更符合SAR图像特性的散射结构和边缘特征,又能保证ASC核中分布式ASC的完整性。综上所述,表8证明了所提方法将预设的ASC核的长度L设置为0.9的合理性。4.4.3 不同层卷积层采用ASC调制卷积核对识别性能的影响
本文设计的网络共包含5个卷积层和2个全连接层,考虑到CNN的浅层负责提取图像中的散射结构和边缘特征,所提方法在前2个卷积层使用本文设计的ASC调制卷积核,以提取更符合SAR图像特性的散射结构和边缘特征。后3个卷积层依然使用CNN卷积核,以保证提取更具鉴别性的语义特征。所提ASC调制卷积核是一个即插即用的模块,可以直接用于替换VGG, ResNet等深度网络的卷积层。为了进一步分析不同网络结构下不同层卷积层采用ASC调制卷积核对识别性能的影响,本节基于3类7型MSTAR子数据集,在表9中给出了VGG16, ResNet18与所提方法替换不同层的卷积核为ASC调制卷积核时的识别性能。
表 9 不同层卷积层采用ASC调制卷积核时对3类7型MSTAR子数据集的识别性能Table 9. Recognition performance on three-target MSTAR data under different convolution layers using ASC modulated convolutional kernels采用层 VGG16 ResNet18 所提方法 不采用 0.9319 0.9480 0.9495 第1层 0.9795 0.9663 0.9795 第1, 2层 0.9839 0.9769 0.9875 第1~3层 0.9773 0.9736 0.9810 第1~4层 0.9758 0.9729 0.9736 第2, 3层 0.9766 0.9641 0.9751 第3, 4层 0.9714 0.9582 0.9707 首先,从表9可以看出,采用ASC调制卷积核可以提升3个网络的识别效果,说明ASC调制卷积核可以作为一个即插即用的模块,用于提升深度网络的SAR目标识别效果。其次,在共两层卷积层采用ASC调制卷积核的情况下,采用的层数越浅,网络的识别性能越好。浅层卷积层采用ASC调制卷积核可以为浅层特征引入SAR图像的电磁特性,更适用于SAR目标的识别,因此应当从网络的第1层卷积层开始采用ASC调制卷积层。最后,从第1层开始,采用ASC调制卷积核的卷积层层数不同会对识别性能产生影响。当只有第1个卷积层采用ASC调制卷积核时,3个网络对SAR图像中的散射结构和边缘特征提取得不够充分,而当前4个卷积层都采用ASC调制卷积核时又会影响整个网络对SAR图像的语义特征的提取能力,这些情况都会对识别性能产生负面影响。如表9所示,当前两个卷积层采用ASC调制卷积核时,本文所设计的网络在3类7型MSTAR子数据集上取得了最高的识别性能。
综上所述,ASC调制卷积核作为即插即用的模块时,应当从第一层开始采用ASC卷积核,具体采用层数应当根据具体网络结构以及训练数据进行选择,本文的实验结果可以作为选择的参考。
4.4.4 不同训练样本数对识别性能的影响
本文设计的网络使用了ASC调制卷积核,该卷积核能够提取更符合SAR图像特性的散射结构和边缘特征。具体来说,ASC调制卷积核是用预先设定好的一组ASC核对CNN的可学习卷积核进行调制得到的,这样可以在只学习一小组CNN卷积核的情况下,通过ASC调制得到更多的卷积核,从而可以在降低参数量的同时保证CNN的特征提取能力,进一步降低对训练样本的需求量。为了验证本文所设计的网络可以在降低对训练样本需求的同时保证优秀的识别性能,本节基于3类7型MSTAR子数据集,在表10中给出了不同方法在不同训练样本数下的识别性能。
表 10 不同方法在不同训练样本数下对3类7型MSTAR子数据集的识别性能Table 10. Recognition performance of different methods on three-target MSTAR data with different number of training samples方法 训练样本比例 100% 50% 30% 25% 20% VGG16 0.9319 0.8886 0.8352 0.7883 0.7370 ResNet34 0.9253 0.8813 0.8278 0.7590 0.7267 A-ConvNet 0.9385 0.9062 0.8769 0.8337 0.7875 BaseNet 0.9495 0.8974 0.8674 0.8227 0.7758 CA-MCNN 0.9861 0.9641 0.9165 0.8938 0.8608 所提方法 0.9875 0.9670 0.9480 0.9187 0.8711 如表10所示,本节探索了当训练样本取100%, 50%, 30%, 25%和20%时,不同SAR目标识别方法的性能。首先,对于VGG16和ResNet34来说,由于其参数量很大,其对训练样本的需求也很大,因此,随着训练样本数的减少,这两种方法的性能下降非常明显。其次,对于A-ConvNet和BaseNet来说,其参数量更少,因此随着训练样本数的减少,这两种方法的性能要高于VGG16和ResNet34,但由于A-ConvNet和BaseNet只使用了SAR图像信息,其识别性能依然需要依赖训练样本的完备性,所以随着训练样本数的减少,这两种方法的性能也受到了明显的影响。与上述4种方法相比,随着训练样本数的减少,CA-MCNN依然能够保证优秀的识别性能,这是因为该方法能够利用SAR目标的图像信息和ASC信息来学习描述能力更强的特征,从而提升训练样本有限的情况下的目标识别性能。与CA-MCNN相比,本文设计的网络在训练样本数减少时能够取得相对更好的性能,具体来说,在训练样本只取25%时,所提方法的PCC依然能够达到0.9187。这是因为所提方法使用了ASC调制卷积核,其不仅能够降低网络的参数量,同时能够提取更符合SAR图像特性的散射结构和边缘特征,因此在训练样本不足的情况下依然能够取得优秀的识别性能。综上所述,表10证明了本文所设计的基于ASC卷积核调制的SAR目标识别深层网络的有效性,其可以在降低对训练样本需求的同时保证优秀的目标识别性能。
5. 结语
本文研究了基于ASC卷积核调制的SAR目标识别深层网络,通过结合SAR目标的电磁散射特性设计了更简单的网络结构来提取更符合SAR图像特性的特征,从而在降低网络参数量的同时保证网络的特征提取能力,实现了在降低对训练样本需求的同时保证优秀的目标识别性能的目的。首先,所提方法设计了ASC调制卷积核,其使用预先设定的具有不同指向和长度的ASC核对CNN本身的卷积核进行调制,从而利用少量可学习卷积核生成更多的卷积核。其次,所提方法仅在网络的浅层使用ASC调制卷积核,用以提取更符合SAR图像特性的散射结构和边缘特征,而在网络的高层使用CNN本身的卷积核,用以提取SAR图像的语义特征。由于整个网络同时使用了ASC调制卷积核和CNN本身的卷积核,因此该网络能够兼顾SAR目标的电磁散射特性和CNN的特征提取优势。基于MSTAR实测数据集和OpenSARShip舰船数据集的实验结果表明,本文设计的网络可以在降低对训练样本需求的同时保证优秀的目标识别性能。
-
表 1 MSTAR的3类7型子数据集的具体信息
Table 1. The detailed information of three-target MSTAR data
类别 型号 训练样本数 测试样本数 BMP2 SNC21 233 196 SN9563 0 195 SN9566 0 196 BTR70 C71 233 196 T72 SNS7 0 191 SN132 232 196 SN812 0 195 表 2 MSTAR的10类14型子数据集的具体信息
Table 2. The detailed information of ten-target MSTAR data
类别 训练样本数 测试样本数 BTR60 255 195 2S1 299 274 BRDM2 298 274 D7 299 274 T62 299 273 ZIL131 299 274 ZSU23/4 299 274 BMP2 233 587 BTR70 233 196 T72 232 582 表 3 OpenSARShip的3类数据集具体信息
Table 3. The detailed information of three-target OpenSARShip data
类别 训练样本数 测试样本数 Cargo 241 159 Fishing 92 23 Tanker 115 76 表 4 不同方法对3类7型MSTAR子数据集的识别性能以及各方法参数量
Table 4. Recognition performance of different methods on three-target MSTAR data and the number of parameters of each method
方法 参数量 PCC VGG16 6.51×107 0.9319 ResNet34 2.13×107 0.9253 A-ConvNet 3.03×105 0.9385 BaseNet 2.27×106 0.9495 CA-MCNN 6.52×106 0.9861 所提方法 2.26×106 0.9875 表 5 不同方法对10类14型MSTAR子数据集的识别性能以及各方法参数量
Table 5. Recognition performance of different methods on ten-target MSTAR data and the number of parameters of each method
方法 参数量 PCC VGG16 6.51×107 0.9166 ResNet34 2.13×107 0.9138 A-ConvNet 3.03×105 0.9219 BaseNet 2.27×106 0.9422 CA-MCNN 6.52×106 0.9781 所提方法 2.26×106 0.9844 表 6 不同方法对OpenSARShip的3类数据集的识别性能以及各方法参数量
Table 6. Recognition performance of different methods on three-target OpenSARShip data and the number of parameters of each method
方法 参数量 PCC VGG16 6.51×107 0.7713 ResNet34 2.13×107 0.7403 A-ConvNet 3.03×105 0.7791 BaseNet 2.27×106 0.8062 CA-MCNN 6.52×106 – 所提方法 2.26×106 0.8101 表 7 预设的ASC核的方向数取不同的M值时对3类7型MSTAR子数据集的识别性能
Table 7. Recognition performance on three-target MSTAR data under different values of M
方向数M PCC 2 0.9722 3 0.9817 4 0.9875 5 0.9810 6 0.9744 表 8 预设的ASC核的长度L取不同值时对3类7型MSTAR子数据集的识别性能
Table 8. Recognition performance on three-target MSTAR data under different values of L
长度L PCC 0.3 0.9729 0.6 0.9788 0.9 0.9875 1.2 0.9810 表 9 不同层卷积层采用ASC调制卷积核时对3类7型MSTAR子数据集的识别性能
Table 9. Recognition performance on three-target MSTAR data under different convolution layers using ASC modulated convolutional kernels
采用层 VGG16 ResNet18 所提方法 不采用 0.9319 0.9480 0.9495 第1层 0.9795 0.9663 0.9795 第1, 2层 0.9839 0.9769 0.9875 第1~3层 0.9773 0.9736 0.9810 第1~4层 0.9758 0.9729 0.9736 第2, 3层 0.9766 0.9641 0.9751 第3, 4层 0.9714 0.9582 0.9707 表 10 不同方法在不同训练样本数下对3类7型MSTAR子数据集的识别性能
Table 10. Recognition performance of different methods on three-target MSTAR data with different number of training samples
方法 训练样本比例 100% 50% 30% 25% 20% VGG16 0.9319 0.8886 0.8352 0.7883 0.7370 ResNet34 0.9253 0.8813 0.8278 0.7590 0.7267 A-ConvNet 0.9385 0.9062 0.8769 0.8337 0.7875 BaseNet 0.9495 0.8974 0.8674 0.8227 0.7758 CA-MCNN 0.9861 0.9641 0.9165 0.8938 0.8608 所提方法 0.9875 0.9670 0.9480 0.9187 0.8711 -
[1] KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. ImageNet classification with deep convolutional neural networks[C]. The 25th International Conference on Neural Information Processing Systems, Lake Tahoe, USA, 2012: 1006–1114. [2] SIMONYAN K and ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]. 3rd International Conference on Learning Representations, San Diego, USA, 2015: 1–14. doi: 10.48550/arXiv.1409.1556. [3] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778. doi: 10.1109/CVPR.2016.90. [4] TAN Mingxing and LE Q. EfficientNet: Rethinking model scaling for convolutional neural networks[C]. The 36th International Conference on Machine Learning, Long Beach, USA, 2019: 6105–6114. [5] LIU Ze, LIN Yutong, CAO Yue, et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]. 2021 IEEE/CVF International Conference on Computer Vision, Montreal, Canada, 2021: 9992–10002. doi: 10.1109/ICCV48922.2021.00986. [6] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[C]. 9th International Conference on Learning Representations, 2021: 1−22. https://iclr.cc/virtual/2021/index.html. [7] CHEN Sizhe, WANG Haipeng, XU Feng, et al. Target classification using the deep convolutional networks for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806–4817. doi: 10.1109/TGRS.2016.2551720. [8] 喻玲娟, 王亚东, 谢晓春, 等. 基于FCNN和ICAE的SAR图像目标识别方法[J]. 雷达学报, 2018, 7(5): 622–631. doi: 10.12000/JR18066.YU Lingjuan, WANG Yadong, XIE Xiaochun, et al. SAR ATR based on FCNN and ICAE[J]. Journal of Radars, 2018, 7(5): 622–631. doi: 10.12000/JR18066. [9] 赵鹏菲, 黄丽佳. 一种基于EfficientNet与BiGRU的多角度SAR图像目标识别方法[J]. 雷达学报, 2021, 10(6): 895–904. doi: 10.12000/JR20133.ZHAO Pengfei and HUANG Lijia. Target recognition method for multi-aspect synthetic aperture radar images based on EfficientNet and BiGRU[J]. Journal of Radars, 2021, 10(6): 895–904. doi: 10.12000/JR20133. [10] HUANG Xiayuan, YANG Qiao, and QIAO Hong. Lightweight two-stream convolutional neural network for SAR target recognition[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(4): 667–671. doi: 10.1109/LGRS.2020.2983718. [11] LIU Jiaming, XING Mengdao, YU Hanwen, et al. EFTL: Complex convolutional networks with electromagnetic feature transfer learning for SAR target recognition[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5209811. doi: 10.1109/TGRS.2021.3083261. [12] ZHANG Tianwen, ZHANG Xiaoling, KE Xiao, et al. HOG-ShipCLSNet: A novel deep learning network with HOG feature fusion for SAR ship classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5210322. doi: 10.1109/TGRS.2021.3082759. [13] QOSJA D, WAGNER S, and BRÜGGENWIRTH S. Benchmarking convolutional neural network backbones for target classification in SAR[C]. 2023 IEEE Radar Conference, San Antonio, USA, 2023: 1–6. doi: 10.1109/RadarConf2351548.2023.10149802. [14] LIU Zhuang, MAO Hanzi, WU Chaoyuan, et al. A ConvNet for the 2020s[C]. 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition, New Orleans, USA, 2022: 11966–11976. doi: 10.1109/CVPR52688.2022.01167. [15] 张翼鹏, 卢东东, 仇晓兰, 等. 基于散射点拓扑和双分支卷积神经网络的SAR图像小样本舰船分类[J]. 雷达学报, 2024, 13(2): 411–427. doi: 10.12000/JR23172.ZHANG Yipeng, LU Dongdong, QIU Xiaolan, et al. Few-shot ship classification of SAR images via scattering point topology and dual-branch convolutional neural network[J]. Journal of Radars, 2024, 13(2): 411–427. doi: 10.12000/JR23172. [16] LUAN Shangzhen, CHEN Chen, ZHANG Baochang, et al. Gabor convolutional networks[J]. IEEE Transactions on Image Processing, 2018, 27(9): 4357–4366. doi: 10.1109/TIP.2018.2835143. [17] 徐丰, 金亚秋. 微波视觉与SAR图像智能解译[J]. 雷达学报, 2024, 13(2): 285–306. doi: 10.12000/JR23225.XU Feng and JIN Yaqiu. Microwave vision and intelligent perception of radar imagery[J]. Journal of Radars, 2024, 13(2): 285–306. doi: 10.12000/JR23225. [18] GERRY M J, POTTER L C, GUPTA I J, et al. A parametric model for synthetic aperture radar measurements[J]. IEEE Transactions on Antennas and Propagation, 1999, 47(7): 1179–1188. doi: 10.1109/8.785750. [19] POTTER L C and MOSES R L. Attributed scattering centers for SAR ATR[J]. IEEE Transactions on Image Processing, 1997, 6(1): 79–91. doi: 10.1109/83.552098. [20] 李飞. 雷达图像目标特征提取方法研究[D]. [博士论文], 西安电子科技大学, 2014.LI Fei. Study on target feature extraction based on radar image[D]. [Ph.D. dissertation], Xidian University, 2014. [21] ROSS T D, WORRELL S W, VELTEN V J, et al. Standard SAR ATR evaluation experiments using the MSTAR public release data set[C]. SPIE 3370, Algorithms for Synthetic Aperture Radar Imagery V, Orlando, USA, 1998: 566–573. doi: 10.1117/12.321859. [22] HUANG Lanqing, LIU Bin, LI Boying, et al. OpenSARShip: A dataset dedicated to sentinel-1 ship interpretation[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(1): 195–208. doi: 10.1109/JSTARS.2017.2755672. [23] SUN Yongguang, DU Lan, WANG Yan, et al. SAR automatic target recognition based on dictionary learning and joint dynamic sparse representation[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1777–1781. doi: 10.1109/LGRS.2016.2608578. [24] DENG Sheng, DU Lan, LI Chen, et al. SAR automatic target recognition based on Euclidean distance restricted autoencoder[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10(7): 3323–3333. doi: 10.1109/JSTARS.2017.2670083. [25] NI Jiacheng and XU Yuelei. SAR automatic target recognition based on a visual cortical system[C]. 2013 6th International Congress on Image and Signal Processing, Hangzhou, China, 2013: 778–782. doi: 10.1109/CISP.2013.6745270. [26] LI Yi, DU Lan, and WEI Di. Multiscale CNN based on component analysis for SAR ATR[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5211212. doi: 10.1109/TGRS.2021.3100137. 期刊类型引用(2)
1. 赵竹新,范纯卓,刘艳博,冯彦卿,王海强. 基于CDCGAN的SAR图像数据增广. 无线电工程. 2025(03): 580-587 . 百度学术
2. 张维,张福涛,张仕元,陈世超. 一种基于集成式单类支持向量机的SAR目标鉴别方法. 空天预警研究学报. 2025(03): 157-162 . 百度学术
其他类型引用(0)
-