Loading [MathJax]/jax/output/SVG/jax.js

AIR-PolSAR-Seg-2.0:大规模复杂场景极化SAR地物分类数据集

王智睿 赵良瑾 汪越雷 曾璇 康健 杨健 孙显

王智睿, 赵良瑾, 汪越雷, 等. AIR-PolSAR-Seg-2.0:大规模复杂场景极化SAR地物分类数据集[J]. 雷达学报(中英文), 2025, 14(2): 353–365. doi: 10.12000/JR24237
引用本文: 王智睿, 赵良瑾, 汪越雷, 等. AIR-PolSAR-Seg-2.0:大规模复杂场景极化SAR地物分类数据集[J]. 雷达学报(中英文), 2025, 14(2): 353–365. doi: 10.12000/JR24237
WANG Zhirui, ZHAO Liangjin, WANG Yuelei, et al. AIR-PolSAR-Seg-2.0: Polarimetric SAR ground terrain classification dataset for large-scale complex scenes[J]. Journal of Radars, 2025, 14(2): 353–365. doi: 10.12000/JR24237
Citation: WANG Zhirui, ZHAO Liangjin, WANG Yuelei, et al. AIR-PolSAR-Seg-2.0: Polarimetric SAR ground terrain classification dataset for large-scale complex scenes[J]. Journal of Radars, 2025, 14(2): 353–365. doi: 10.12000/JR24237

AIR-PolSAR-Seg-2.0:大规模复杂场景极化SAR地物分类数据集

DOI: 10.12000/JR24237 CSTR: 32380.14.JR24237
基金项目: 国家自然科学基金(62331027)
详细信息
    作者简介:

    王智睿,博士,副研究员,主要研究方向为SAR图像智能解译

    赵良瑾,硕士,助理研究员,主要研究方向为模型轻量化、边缘智能

    汪越雷,博士生,主要研究方向为分布式协同感知

    曾 璇,博士生,主要研究方向为极化SAR地物分类

    康 健,博士,副教授,主要研究方向为遥感图像智能解译

    杨 健,博士,教授,主要研究方向为极化SAR图像处理

    孙 显,博士,研究员,主要研究方向为多源遥感图像智能解译

    通讯作者:

    赵良瑾 zhaolj004896@aircas.ac.cn

  • 责任主编:陈思伟 Corresponding Editor: CHEN Siwei
  • 中图分类号: TN957

AIR-PolSAR-Seg-2.0: Polarimetric SAR Ground Terrain Classification Dataset for Large-scale Complex Scenes

Funds: The National Natural Science Foundation of China (62331027)
More Information
  • 摘要: 极化合成孔径雷达(PolSAR)地物分类是SAR图像智能解译领域的研究热点之一。为了进一步促进该领域研究的发展,该文组织并发布了一个面向大规模复杂场景的极化SAR地物分类数据集AIR-PolSAR-Seg-2.0。该数据集由三景不同区域的高分三号卫星L1A级复数SAR影像构成,空间分辨率8 m,包含HH, HV, VH和VV共4种极化方式,涵盖水体、植被、裸地、建筑、道路、山脉等6类典型的地物类别,具有场景复杂规模大、强弱散射多样、边界分布不规则、类别尺度多样、样本分布不均衡的特点。为方便试验验证,该文将三景完整的SAR影像裁剪成24,672张512像素×512像素的切片,并使用一系列通用的深度学习方法进行了实验验证。实验结果显示,基于双通道自注意力方法的DANet性能表现最佳,在幅度数据和幅相融合数据的平均交并比分别达到了85.96%和87.03%。该数据集与实验指标基准有助于其他学者进一步展开极化SAR地物分类相关研究。

     

  • 合成孔径雷达(Synthetic Aperture Radar, SAR)[1]是一种主动式的微波遥感成像系统,具备全天时、全天候、高分辨率成像和大面积覆盖等优势,能够克服云、雨、雾等天气条件下实现对地表观测[2]。其中,极化SAR (Polarimetric SAR, PolSAR)是SAR系统的重要分支,通过同时发送和接收不同极化方式(如水平极化HH、垂直极化VV以及交叉极化HV和VH)的微波信号,获取地物目标后向散射信号的极化特性,提供更丰富的极化散射信息,有助于深入理解地表目标的复杂特征和变化规律,从而为地球表面的监测与分析提供更全面的数据支撑[3]

    地物分类是极化SAR图像智能解译应用的核心任务之一,其关注点在于对极化SAR图像的像素单元进行特征提取,并基于像素特征将图像空间中的像素与地物类别进行关联,从而实现对地物目标的区分。这一技术在多个领域展现出广泛的应用价值[49],在地形测绘领域,通过对地形地貌的精细刻画,为城市规划、资源调查等提供有力支持;在灾害监测方面,通过实时监测和分析极化SAR图像,可以及时发现和评估地震、洪水等自然灾害对地表的影响;在资源勘探领域,通过协助识别潜在的资源和地质构造,为资源的合理开发和高效利用提供科学依据。因此,深入研究极化SAR地物分类对于推动遥感技术的发展、提升地表信息提取和分析的效率具有重要意义。

    近年来,深度学习(Deep Learning, DL)技术凭借其强大的特征学习能力和应用泛化能力,为极化SAR图像解译任务带来了新的思路。研究人员开始将深度学习技术应用到极化SAR地物分类领域,从而实现极化SAR地物分类的高效智能解译。 Chen等人[7]分别基于两类典型的像素级深度学习分类网络从极化SAR图像中提取结构化特征,并基于多样化的预训练数据集进行模型的训练,使得模型能够灵活适应各种复杂场景。文献[10]设计了一种基于卷积神经网络的双注意力融合框架,分别对幅度伪彩色图像以及基于Freeman-Durden分解[11]的伪彩色合成图像进行特征提取,并通过融合机制将两者进行组合,实现了对极化SAR图像特征的精准捕捉和高效利用。文献[4]建立了一种基于极化特征驱动的深度卷积神经网络分类方法,通过结合专家知识对地物目标的散射机制进行解释并挖掘极化特征,以辅助深度卷积神经网络分类器的训练,提高地物分类性能。文献[12]建立了复数域下的像素映射深度数学模型,并基于编组-交叉卷积网络将分类模型推广到复数域,利用网络提取的复数特征及其对应的相位和幅度来实现更精确的极化SAR图像地物分类。文献[13]提出了一种基于复值卷积神经网络样本精选的极化SAR图像弱监督地物分类方法,通过物体框标注样本进行迭代精选,有效剔除异质样本。文献[14]提出了一种基于张量积扩散的非监督极化SAR图像地物分类方法,基于超像素提取多种特征并生成的特征向量进行聚类分析得到地物分类结果。文献[15]构建了基于混合注意力机制的编解码器全卷积网络,结合选择性核模块与自注意力模块处理极化SAR图像相干矩阵,有效提升了多尺度特征和复杂地物区域上下文信息的处理能力。文献[16]介绍了一种基于进化算法的复值卷积神经网络架构搜索方法,通过个体编码定义搜索空间,采用包括交叉、变异及两步选择策略优化网络,保证地物分类性能的同时兼顾网络复杂度。上述基于卷积神经网络的地物分类算法取得了显著进展,促进了深度学习在极化SAR地物分类的应用。

    然而,深度学习是一种基于数据驱动的方法,数据不仅是深度学习模型进行训练的基础,更是其效能得以发挥的关键所在。在光学遥感领域,得益于技术的成熟和应用的广泛,已经涌现出较多开源的地物分类数据集,如FAIR1M[17], iSAID[18], UC Merced Land Use Dataset[19], Potsdam[20], NWPU-RESISC45[21], WHU-RS19[22]等。这些数据集提供了丰富的地物类别和场景,可用于光学遥感图像地物分类算法的评估和比较。相比之下,极化SAR地物分类数据集较为有限,现阶段公开发表的极化SAR地物分类数据集主要包括PolSF[23], AIR-PolSAR-Seg[24], Pol-InSAR-Island[25]和美国城乡0.12 m分辨率数据集[26]。其中,PolSF由西安电子科技大学IPIU团队构建并于2019年发布,共包含五景旧金山地区不同时相不同传感器的全极化图像。AIR-PolSAR-Seg数据集由中国科学院空天信息创新研究院地理与赛博空间信息技术研究部构建并于2022年发布,共包含2,000幅全极化图像切片。Pol-InSAR-Island是一个极化干涉记载SAR基准数据集,由德国航空航天中心于2023年发布,用于土地覆盖分类。高分辨率机载 PolSAR美国城乡0.12 m分辨率数据集于2024年发布,由美国桑迪亚国家实验室采集,包含39个200 m×200 m复数PolSAR图像集。尽管上述数据集在数据规模、标注质量和地物类别多样性等方面具备较高的水平,为极化SAR地物分类智能解译提供了重要的数据基础,但它们主要提供的是L2级图像产品,缺乏对复数信息的深入探索和利用。实际上,极化SAR数据以复数形式呈现,涵盖幅度及相位信息,这些信息包含了丰富的地物散射特性和结构特征,对于提高地物分类的精度和准确性具有重要意义。此外,在实际解译应用中,地物在极化SAR图像中展现出多变的散射强度、不规则的形态结构、多样的尺度分布以及不均衡的类别样本分布,对极化SAR地物分类算法的研究与设计带来了较大的挑战。因此,构建一个具有大场景覆盖、散射多变、边界分布不规则、尺度多样、样本分布差异显著的极化SAR地物分类数据集尤为重要,这不仅能够反映极化SAR图像中不同地物的复杂性和多变性,还能够为地物分类算法的训练和测试提供丰富且全面的数据支持,从而推动相关算法的持续优化。

    为了满足上述需求,本文组织并构建了一个面向大规模复杂多变场景的极化SAR地物分类数据集,命名为AIR-PolSAR-Seg-2.0。该数据集由三景L1A级全极化SAR影像的复数据构成,涵盖水体、植被、裸地、建筑、道路、山脉等6类典型地物。相比于AIR-PolSAR-Seg数据集提供的L2级数据,L1A级数据记录了雷达系统的原始回波信号,包含了距离向和方位向的全分辨率数据。数据集经过了专家团队的细致判读和修正,并公开发布在《雷达学报》官网(https://radars.ac.cn/web/data/getData?newsColumnId=f7ba16ea-805b-4907-b4e1-d72af8bef14b),为极化SAR地物分类算法研究提供了数据基础。此外,本文还基于一系列通用的深度学习方法进行了实验讨论和验证。

    高分三号是我国首颗搭载极化SAR系统的卫星,为极化SAR图像解译技术的研究和发展提供了基础支撑。AIR-PolSAR-Seg-2.0数据集由三景覆盖中国3个不同地区的高分三号卫星影像构成,成像模式为全极化条带I,共涵盖HH, HV, VH和VV共4种极化方式的组合,空间分辨率8 m,获取方式为单视斜距。每种极化影像的复信息由实部及虚部二维图像矩阵按照通道维度(影像Z2×H×W,其中2表示通道维度)顺序堆叠存储,存储数据类型为16位有符号整型,设单个像元的实部虚部分别表示为 J(z), R(z),则相应的幅值与相位为J(z)2+R(z)2, arctan(R(z)/J(z))表1列出了AIR-PolSAR-Seg-2.0数据集中3个地区影像数据的详细信息。其中,地区1的全极化SAR图像拍摄于2016年11月,地区中心的经纬度分别为113°2'和23°0',图像尺寸为5456像素×4708像素;地区2的全极化SAR图像拍摄于2016年9月,地区中心经纬度分别为116°5'和40°1',图像尺寸为7820像素×6488像素;地区3的全极化SAR图像拍摄于2019年1月,地区中心经纬度分别为121°7'和31°2',图像尺寸为6014像素×4708像素。

    表  1  AIR-PolSAR-Seg-2.0数据集中3个地区影像数据的详细信息
    Table  1.  Details of image data for three regions in the AIR-PolSAR-Seg-2.0 dataset
    地区编号 分辨率(m) 经度 纬度 图像大小(像素) 时间 成像模式 极化方式
    1 8 113°2' 23°0' 5456×4708 2016年11月 全极化条带I HH, HV, VH, VV
    2 8 116°5' 40°1' 7820×6488 2016年9月 全极化条带I HH, HV, VH, VV
    3 8 121°7' 31°2' 6014×4708 2019年1月 全极化条带I HH, HV, VH, VV
    下载: 导出CSV 
    | 显示表格

    AIR-PolSAR-Seg-2.0数据集中的三景影像数据均严格参照同时相的高分辨率光学遥感影像进行标注,标注信息参考了AIR-PolSAR-Seg数据集的标注类型。标注过程中使用了Photoshop软件,由专家团队进行了细致的判读,并对初步判读结果进行了严格的修正,以确保标注的精确性和可靠性。影像和标注文件均为Tiff格式,具有良好的兼容性和可扩展性。此外,表2详细列出了AIR-PolSAR-Seg-2.0数据集的各类别编号索引,为实验统一分析提供了便利,也方便了读者快速查找和定位所需的数据。

    表  2  AIR-PolSAR-Seg-2.0数据集的地物类别对应编号及编码信息
    Table  2.  The corresponding numbers and coding information of the ground terrain categories in the AIR-PolSAR-Seg-2.0 dataset
    地物类别编号 地区1影像数据 地区2影像数据 地区3影像数据
    C1 水体(0, 0, 255) 水体(0, 0, 255) 水体(0, 0, 255)
    C2 植被(0, 255, 0) 植被(0, 255, 0) 植被(0, 255, 0)
    C3 裸地(255, 0, 0) 裸地(255, 0, 0) 裸地(255, 0, 0)
    C4 道路(0, 255, 255) 道路(0, 255, 255) 道路(0, 255, 255)
    C5 建筑(255, 255, 0) 建筑(255, 255, 0) 建筑(255, 255, 0)
    C6 山脉(255, 0, 255)
    下载: 导出CSV 
    | 显示表格

    图1图2图3分别给出了3个地区影像数据的可视化图像信息。其中,地区1影像数据包含5类典型的地物目标,分别是水体、植被、裸地、道路和建筑,各类别编号如表2所示,5类地物目标分别由(0, 0, 255), (0, 255, 0), (255, 0, 0), (0, 255, 255)以及(255, 255, 0)进行编码和标注。地区2影像数据包括6类地物类别,即水体、植被、裸地、道路、建筑和山脉,分别由(0, 0, 255), (0, 255, 0), (255, 0, 0), (0, 255, 255), (255, 255, 0)以及(255, 0, 255)进行编码和标注。地区3影像数据的类别和编码信息与地区1影像数据一致。

    图  1  高分三号地区1影像数据
    Figure  1.  GF-3 PolSAR image of area 1
    图  2  高分三号地区2影像数据
    Figure  2.  GF-3 PolSAR image of area 2
    图  3  高分三号地区3影像数据
    Figure  3.  GF-3 PolSAR image of area 3

    不同于以往的极化SAR地物分类数据集,AIR-PolSAR-Seg-2.0数据集聚焦于L1A级极化SAR图像产品,主要具有以下特性。

    (1) 复数图像信息

    AIR-PolSAR-Seg-2.0数据集包含三景全极化SAR影像,携带原始的实部以及虚部信息,表征了雷达波在与地物目标相互作用的幅度及相位特性,这对精确描述目标表面的几何形状和电磁特性非常重要。具体地,幅度信息指的是复数值的模,它表示了雷达波的后向散射强度,相位信息指的是复数值的角度,它表示了雷达波与地物目标相互作用后的相位变化。两者结合能够提供地物目标的详细特征,有助于精确描述目标表面的几何形状和电磁特性。而通过极化信息的利用,可以进一步提取地物的散射特性和极化特征,从而提高地物分类的精度和可靠性。

    (2) 大场景覆盖

    本数据集覆盖了中国3个地区的全极化图像,单景图像具有8 m的空间分辨率,且图像尺寸分别为5456×4708像素、7820×6488像素和6014×4708像素。因此,本数据集的单景图像可以覆盖城市的数千平方公里的大规模区域,具备大规模的观测范围。

    (3) 强弱散射多样性

    在本数据集的极化SAR影像中,某些地物表面在雷达波束方向上的几何形状和电磁特性能够导致强散射。例如,垂直于雷达波束方向的凹凸面或者具有大尺度粗糙度的地表会导致较强的散射。典型的强散射地物包括建筑物、岩石等,它们在极化SAR图像上通常呈现出明显的亮点或者暗点,具有较高的反射率或者回波强度。相反地,另一些地物表面具有相对平坦或者细小尺度的粗糙度,或者其几何形状不利于雷达波束的散射。这些地物在极化SAR图像上通常表现出较弱的散射特性。例如,草地、农田、树木等植被,以及某些水体表面,在极化SAR图像中可能呈现出较暗的特征。强散射和弱散射特性共同导致了地物在极化SAR图像中的强弱散射特性。

    (4) 边界分布不规则

    地物的边界分布通常呈现出不规则的特点。首先,在成像过程中,由于雷达波长较短,它对地表的微小特征和细微的地形变化都非常敏感,导致地物的边界在图像上表现出非常细微的变化,使得边界呈现出不规则的形态。此外,对于地物自身来说,不同类型的地物具有不同的形态和反射特性,导致它们在极化SAR图像上表现出各种不规则的边界分布。例如:自然地物如树木、草地、水体等,它们的形态和反射特性各不相同,可能会因为植被密度、水体表面粗糙度等因素而导致其边界呈现出不规则的形态。

    (5) 尺度多样

    大场景的极化SAR影像存在极端尺度差异的特点,本数据集主要包含水体、植被、裸地、建筑物、道路和山脉6类地物。不同地物之间由于其固有属性导致自身体积差异巨大,因此成像之后在极化SAR影像中的实例尺度存在较大的差异。此外,由于极化SAR成像结果为侧视斜距成像,因此同类地物因透视收缩或叠掩等几何畸变导致类内尺度差异大。类间和类内尺度的差异共同组成了本数据集尺度多样的特性。

    (6) 样本分布不均衡

    本数据集的类别存在样本分布不均衡的特性,具体是指数据集中各个类别的样本数量具有较大的差异,这在一定程度上增加了模型对数据集的拟合难度,有助于研究者进行高效的、泛化能力强的模型算法的研发。样本分布不均衡是因为地球表面不同地区的地物分布存在着明显差异。如图4所示,建筑物和植被在整个数据集中占据主导地位,是样本数量最多的两个类别,而对于水体、裸地、道路和山脉4个类别来说,则占据较少的比例。由于数据基本采集于城市区域,因此会存在样本量较少的现状,而道路本身占据像素面积较小,这也是其样本量少的原因之一。

    图  4  AIR-PolSAR-Seg-2.0数据集类别样本分布
    Figure  4.  Distribution of class samples in the AIR-PolSAR-Seg-2.0 dataset

    本文对AIR-PolSAR-Seg-2.0中三景全极化SAR图像进行了剪裁处理,旨在将图像数据划分为更易于处理的切片,如图5所示。这些图像切片的大小统一设定为512×512像素,这一尺寸的选择既保证了足够的图像信息含量,又兼顾了处理效率。图像切片重叠率为50%。经过剪裁处理,AIR-PolSAR-Seg-2.0中三景大图共生成了24,672张图像切片,这些切片不仅包含了原始图像的丰富信息,还提供了4种极化模式的幅度和相位的详细数据,为后续的极化SAR图像分析提供了坚实的基础。此外,本文还生成了与每张切片对应的真值标签切片,这些标签是通过对图像进行精确标注得到的,为极化SAR地物分类任务提供了可靠的参考依据。

    图  5  AIR-PolSAR-Seg-2.0切片产生过程
    Figure  5.  Process of AIR-PolSAR-Seg-2.0 dataset patch generation

    本文提出的AIR-PolSAR-Seg-2.0与AIR-PolSAR-Seg数据集的对比如表3所示。除了数据级别更加接近原始数据,本文提出的数据集由于没有经过辐射校正,也更具有挑战性。另外,本次公开数据集的数据量是AIR-PolSAR-Seg的12倍,研究组合方式多样,方便了后续研究的开展。

    表  3  AIR-PolSAR-Seg-2.0与AIR-PolSAR-Seg数据集比较
    Table  3.  Comparison of AIR-PolSAR-Seg-2.0 and AIR-PolSAR-Seg datasets
    数据集 数据内容 分辨率 地物类别 影像区域及尺寸 样本数量及尺寸
    AIR-PolSAR-Seg-2.0数据集 L1A级SAR复数据(含幅度和
    相位图像),极化方式包括
    HH, HV, VH, VV
    8 m 共6类,分别为水体、
    植被、裸地、建筑、
    道路、山脉
    三景,尺寸分别为5456像素×
    4708像素、7820像素×6488像素
    6014像素×4708像素
    24672张,
    512像素×512像素
    AIR-PolSAR-Seg
    数据集
    L2级SAR幅度图像,极化方式
    包括HH, HV, VH, VV
    8 m 共6类,分别为住房区域、工业区、自然区、
    土地利用区、水域
    和其他区域
    一景,9082像素×9805像素 2000张,
    512像素×512像素
    下载: 导出CSV 
    | 显示表格

    鉴于本数据集携带复数信息的特性,实验方案将分为基于幅度数据以及幅相融合数据分别进行实验。

    目前深度学习技术的持续发展为像素级分类任务提供了强大的支持,诸多创新算法不断涌现。这些算法大致可归为4类:基于全卷积的方法、基于编解码的方法、基于关键点的方法和基于注意力机制的方法。本文实验采用的对比方法从这4类方法中选择。

    (1) 基于全卷积的方法。该方法是通过构建全卷积网络来实现像素级的精细分类。这类方法充分利用卷积神经网络在特征提取和图像表示方面的优势,学习更丰富的上下文信息,代表性方法有FCN[27]和PSPNet[28]。FCN通过使用全卷积层代替全连接层,使得网络可以接受任意尺寸的输入图像,并且输出相同尺寸的像素级的分类结果。在FCN基础上,PSPNet引入了金字塔池化模块,用于有效地捕获不同尺度的上下文信息,从而提升了对复杂场景的理解能力,进一步提升了像素级分类性能。

    (2) 基于编解码的方法。该方法构建了编码器和解码器的结构,实现了从图像到像素级标签的映射。这类方法在编码器阶段提取图像的特征,然后在解码器阶段逐步恢复空间分辨率,最终生成精细的分类结果。DeepLabV3+[29]是这一类方法的代表性工作。DeepLabV3+引入了一个简单而有效的解码器模块,用于优化对象边界的分类结果。在DeepLabV3+中,编码器输出的特征图包含了丰富的语义信息,通过使用空洞卷积控制编码器特征的密度,更好地捕捉图像中的语义信息。此外,DeepLabV3+还采用双线性上采样对编码器输出的特征进行放大,以及加入了更多的上下文信息,从而提升了对复杂场景的理解能力。

    (3) 基于关键点的方法。该方法利用特定的网络结构或算法来检测图像中的关键点,并根据这些关键点的位置和信息来指导像素级分类。代表性方法为Point-rend[30],其将像素级分类任务视为渲染问题,利用迭代细分算法选择关键点,提取点级特征,并为其预测类别。该算法能够避免对输出网格上的所有点进行过多预测,而只专注于那些不确定性较强的点,从而实现了高效且精确的像素级分类。

    (4) 基于注意力机制的方法。该方法为像素级分类任务提供了新的思路。这类方法通过引入注意力机制,使网络能够自适应地关注重要的特征和区域,从而提高分类的准确性和效率。代表方法为DANet[31],其基于自注意力机制来分别捕获空间维度和通道维度中的特征依赖关系,通过融合位置注意力模块和通道注意力模块的输出,增强特征表示,进一步提升分类的准确度。

    本文将HH, HV, VV极化通道的数据分别映射至RGB色彩空间的三通道,从而生成伪彩色图像,在此实验数据的基础上开展基于幅度和幅相融合的实验。选取这3个通道的原因是极化方式间数据相关度最低,可以充分获取到各极化方式的信息。

    为了得到与全极化图一致的幅度相位关联信息,引入了散射矢量的二阶矩Ω计算极化协方差矩阵C,其公式如下:

    Ω=[SXX,2SXY,SYY] (1)
    C=ΩΩ*T=[|S2XX|2SXXS*XYSXXS*YY2SXYS*XX2|S2XY|2SXYS*YYSYYS*XX2SYYS*XY|S2YY|] (2)

    其中,SXX,2SXY,SYY分别对应伪彩色的三通道输入,ΩΩ分别是图像的幅度与相位的对应输入,(·)T表示矩阵的转置。

    实验基于NVIDIA GeForce RTX 4090硬件平台,代码框架基于MMsegmentation,并采用深度学习框架PyTorch 1.12.0和CUDA 11.3。实验中,将数据按照8:2的比例划分训练集和测试集。为了提升模型的泛化能力,利用MMSegmentation中的数据增强操作对训练数据进行优化,包括随机翻转、随机裁剪等操作。模型训练轮次为80000轮,训练过程中设置学习率为0.001,动量为0.9,权重衰减系数为0.0005

    为了定量评价不同深度学习方法在本数据集上的性能,本文采用像素精度(Pixel Accuracy, PA)、平均像素精度(Mean Pixel Accuracy, mPA)、平均交并比(Mean Intersection Over Union, mIoU)、卡帕系数(Kappa Coefficient, Kappa)等多个评价指标,以下将分别展开介绍。

    (1) PA通常被定义为模型预测正确的像素数量占总预测像素数量的比例,数学公式表示如下:

    PA=ki=1piiki=1kj=1pij (3)

    其中,pii为第i类别被正确地预测为类别i的像素数量,pij表示第i类别被错误地预测为类别j的像素数量,k为类别总数。

    (2) mPA衡量模型在每个类别上预测正确的像素所占比例的平均值。与PA相比,mPA更进一步地考虑了每个类别的预测准确性,而不仅仅是整体的像素准确率。具体地,mPA对每个类别的像素精度求平均值,其数学表达式如下:

    mPA=1kki=1piikj=1pij (4)

    (3) mIoU基于IoU的平均值来评估模型的性能。IoU是指真实标签和预测结果的交集与并集之比,用于衡量模型对图像像素级分类的准确性,而mIoU对数据集中每个类别的IoU计算平均值,其数学表达式如下:

    mIoU=1kki=1TPiTPi+FPi+FNi (5)

    其中,TPi表示第i类别的真正例像素数,FPi表示第i类别的假正例像素数,FNi表示第i类别的假负例像素数。

    (4) Kappa系数的计算基于混淆矩阵,主要用于衡量分类模型预测结果与实际分类结果之间的一致性程度,其计算公式如下:

    Kappa=PAP1P (6)
    P=1N2ki=1Conf(i,:)Conf(:,i) (7)

    其中,N为总样本像素数量,Conf()为混淆矩阵。Kappa的取值范围在–1~1之间,其值越高,代表模型实现的分类精度越高,模型性能越好。

    本文基于AIR-PolSAR-Seg-2.0数据集的幅度数据以及幅相数据,对几种通用的像素级分类的基准方法进行训练和测试,包括FCN, PSPNet, DeepLabV3+, Point-rend, DANet等方法。实验涉及数据集的6大类别,分别为C0代表的水体、C1代表的植被、C2代表的裸地、C3代表的道路、C4代表的建筑以及C5代表的山脉。

    表4给出了基于幅度数据实验中不同方法的对比实验结果。由表4中数据可知,DANet在多个评价指标上取得了较为优异的性能。具体而言,与其他对比方法相比,DANet在C0—C4类上的IoU精度最高,在C0, C2, C3类上PA精度达到最高。值得注意的是,在C5类(即山脉)上DANet方法的IoU和PA精度略低于DeepLabV3+方法。这一差异可能与山脉这一类别的特性有关,山脉的地形变化复杂,可能会导致其边界在极化SAR图像中呈现出不规则形态,这种不规则边界分布给像素级地物分类带来了挑战,山脉的边界往往较难准确区分。而DeepLabV3+方法采用了针对边界优化的解码器设计,使其在处理具有复杂边界的目标时具有更好的分类效果。因此,DeepLabV3+在C5类(山脉)上的表现相对较好。在C4类(建筑)上,各方法的IoU精度和PA精度差距较小,DANet在IoU精度上最高,PSPNet在PA精度上最高,这是由于建筑物一般具有较为明显的边界和纹理特征,这些特征易被多个方法有效提取。同样地,对于C1类(植被)而言,各方法之间差距较小且精度均较高,DANet在IoU精度上最高,Point-rend在PA精度上最高。对于C3类(道路)而言,通常覆盖范围较小,且边界易与其他类别混淆。和其他类别相比,各方法在C3类上的精度均较低。DANet对于C3类的分类效果明显高于其他方法,体现了注意力机制在提取道路这类对象的特征方面的显著优势。另外,虽然PSPNet在幅度实验中性能没有显著比FCN高,但在像素占比最高的C4类(建筑)的PA精度上达到了最优,然而C3类(道路)性能较差,可能是因为建筑的多尺度特性比较符合自然场景下的金字塔特征提取。在不同类别上各方法的性能差异,一定程度上体现了AIR-PolSAR-Seg-2.0数据集的复杂性与挑战性。总体而言,在基于幅度数据的实验中,相较于其他方法,DANet的PA精度提升了0.69%~1.51%,mPA精度提升了1.59%~3.49%,mIoU精度提升了1.42%~3.79%,Kappa精度提升了1.03%~2.22%。

    表  4  基于幅度数据实验中不同算法的对比结果(%)
    Table  4.  Comparative results of different methods in experiments based on amplitude data (%)
    方法每个类别的IoU/PA评价指标
    C0C1C2C3C4C5PAmPAmIoUKappa
    FCN89.33/93.4488.34/94.0375.58/79.2562.07/75.3188.58/95.0390.53/92.1592.4688.2082.4089.13
    PSPNet89.78/93.3088.22/94.0573.93/78.8260.00/70.2488.56/95.8892.55/93.1992.4187.5882.1789.02
    DeepLabV3+90.44/93.1189.54/95.1869.66/73.9863.15/76.6189.93/95.4495.98/98.1793.1288.7583.1290.08
    Point-rend90.63/93.7089.53/96.0679.87/84.3162.19/70.8289.57/95.3295.43/96.6593.2389.4884.5490.21
    DANet91.06/94.4990.51/95.6280.51/84.7667.39/78.6790.66/95.5995.62/97.2893.9291.0785.9691.24
    注:加粗项表示最优结果。
    下载: 导出CSV 
    | 显示表格

    表5展示了基于幅度相位融合数据实验中不同方法的量化结果对比。本方法融合了HH, HV, VV这3种不同极化方式的图像数据,通过计算散射矢量的二阶矩得到极化协方差矩阵,保证了输入网络前的幅度相位分布与全极化图的一致性。在该实验中,DANet仍保持了在多个评价指标上的性能优势。与其他方法相比,DANet在C0—C4类上的IoU精度均最高,在C1—C3类别上PA精度最高。在C5(山脉)类别上,DeepLabV3+方法在IoU和PA精度上最高。与基于幅度数据实验结果类似,针对边界优化的DeepLabV3+在C5(山脉)类别上的表现较好。而基于点级特征提取的Point-rend方法对于山脉类别的分类同样具有较好的效果。在C0(水体)类别上,Point-rend方法在PA精度上略高于其他方法。总体来看,相较于其他方法,DANet的PA精度提升了0.80%~1.91%,mPA精度提升了1.67%~3.85%,mIoU精度提升了1.65%~4.33%,Kappa精度提升了1.19%~2.80%。与幅度数据指标相比,基于幅度相位融合数据的各项指标均有所提升,以DANet方法为例,其PA, mPA, mIoU和Kappa指标分别提升了0.54%, 0.75%, 1.07%和0.79%。

    表  5  基于幅度相位融合数据实验中不同算法的对比结果 (%)
    Table  5.  Comparative results of different methods in experiments based on amplitude and phase fusion data (%)
    方法每个类别的IoU/PA评价指标
    C0C1C2C3C4C5PAmPAmIoUKappa
    FCN89.62/92.6288.39/94.6573.16/75.5261.84/72.6988.58/95.3794.60/96.9892.5587.9782.7089.23
    PSPNet89.87/93.6688.31/94.0276.38/81.3560.90/71.5188.70/95.5794.51/96.2592.5788.7383.1189.27
    DeepLabV3+89.82/91.9289.93/95.6873.78/78.4264.25/73.7690.14/96.2796.23/98.3693.3989.0784.0290.44
    Point-rend91.25/94.9890.03/94.4979.49/82.0666.19/75.3890.06/96.6095.23/97.4093.6690.1585.3890.84
    DANet91.73/94.3291.17/96.1982.38/85.6370.86/81.3591.48/95.9194.54/97.5294.4691.8287.0392.03
    注:加粗项表示最优结果。
    下载: 导出CSV 
    | 显示表格

    为了进一步定量评估不同基准方法在本文数据集上的性能,本文绘制了基于幅度相位融合数据实验中各方法的混淆矩阵。如图6所示,对角线上的概率为每个类别被正确分类的PA精度,其他数值为每一类别被错误分类到其他类别的概率。其中,裸地和道路两类的分类难度较大,PA精度普遍较低,裸地易被错分类为植被和道路,道路易被错分类为植被和建筑。对于裸地,如果其表面较为干燥且平坦,可能会与植被、道路在某些频段下的后向散射系数相似,容易被误分类。而道路通常与植被、建筑等类别的边界较难区分,位于边界的一些像素可能被误分类,易于混淆。这进一步体现了AIR-PolSAR-Seg-2.0数据集的挑战性。

    图  6  混淆矩阵示意图
    Figure  6.  The confusion matrices for the methods

    图7更直观地展示了不同对比方法在AIR-PolSAR-Seg-2.0数据集上的极化SAR地物分类的效果。图7(a)列为真值标签,图7(b)图7(f)列分别为FCN, PSPNet, DeepLabV3+, Point-rend和DANet方法的分类结果。前两行的图像来自第1景全极化SAR图像,后3行分别来自第2景与第3景大图。综合评估第1, 2, 4, 5行的实验结果,DANet方法在处理水体、道路这类细长形状的地物目标时表现出了优势。相较于其他方法,DANet的分类效果更接近真值,而其他方法则在一定程度上出现了不连续或断裂的现象。对于第1行中植被的分类,FCN方法未能有效地将其与建筑物的边界区分,其他方法虽然相对较好,但对于边界的分类仍有待进一步提高。在第3行对裸地的分类中,FCN方法将较多的部分误分类为植被,PSPNet, DeepLabV3+, Point-rend方法的分类结果中均出现空洞,将其误分类为道路。相比之下,DANet方法的分类效果更好,更接近真值图像。在第5行对山地的分类中,FCN方法存在过多的破碎色块,PSPNet和DeepLabV3+方法中山地的空洞减少,但是临近水体预测能力下降,DANet相比Point-rend对于山地的预测更优,水体和道路的预测也有优势。

    图  7  AIR-PolSAR-Seg-2.0数据集上不同方法的可视化结果
    Figure  7.  Visualization results of different methods on AIR-PolSAR-Seg-2.0 dataset

    本文组织并发布了一个名为AIR-PolSAR-Seg-2.0的极化SAR地物分类数据集,旨在满足大规模复杂场景下的地物分类需求。该数据集包含24,672张图像切片,共有6类典型的地物类别,不仅携带复数信息,还具备大场景覆盖、散射多变、边界分布不规则、尺度多样、样本分布不均衡等特点,这为地物分类算法的训练和测试提供了丰富且全面的样本支持。为了验证AIR-PolSAR-Seg-2.0数据集的有效性和实用性,本文采用一系列通用的深度学习方法进行了实验验证,实验结果表明:基于双通道自注意力方法的DANet性能表现最佳,在幅度数据和幅度相位融合数据的平均交并比分别达到了85.96%和87.03%。可视化图表显示,基于该数据集训练的分类算法在识别不同地物类别时展现出了出色的性能,不仅在像素精度、平均交并比等关键指标上取得了显著提升,还能够在复杂场景下保持稳定的分类效果。这些实验结果为极化SAR地物分类算法的研究和应用提供了有力支持,同时也便于其他学者在该数据集的基础上进一步展开极化SAR地物分类相关研究。

    附录

    AIR-PolSAR-Seg-2.0:大规模复杂场景极化SAR地物分类数据集依托《雷达学报》官方网站发布,数据及使用说明己上传至学报网站页面(附图1),网址:https://radars.ac.cn/web/data/getData?newsColumnId=f7ba16ea-805b-4907-b4e1-d72af8bef14b

    1  AIR-PolSAR-Seg-2.0:大规模复杂场景极化SAR地物分类数据集发布网页
    1.  Release webpage of AIR-PolSAR-Seg-2.0: Polarimetric SAR ground terrain classification dataset for large-scale complex scenes
  • 图  1  高分三号地区1影像数据

    Figure  1.  GF-3 PolSAR image of area 1

    图  2  高分三号地区2影像数据

    Figure  2.  GF-3 PolSAR image of area 2

    图  3  高分三号地区3影像数据

    Figure  3.  GF-3 PolSAR image of area 3

    图  4  AIR-PolSAR-Seg-2.0数据集类别样本分布

    Figure  4.  Distribution of class samples in the AIR-PolSAR-Seg-2.0 dataset

    图  5  AIR-PolSAR-Seg-2.0切片产生过程

    Figure  5.  Process of AIR-PolSAR-Seg-2.0 dataset patch generation

    图  6  混淆矩阵示意图

    Figure  6.  The confusion matrices for the methods

    图  7  AIR-PolSAR-Seg-2.0数据集上不同方法的可视化结果

    Figure  7.  Visualization results of different methods on AIR-PolSAR-Seg-2.0 dataset

    1  AIR-PolSAR-Seg-2.0:大规模复杂场景极化SAR地物分类数据集发布网页

    1.  Release webpage of AIR-PolSAR-Seg-2.0: Polarimetric SAR ground terrain classification dataset for large-scale complex scenes

    表  1  AIR-PolSAR-Seg-2.0数据集中3个地区影像数据的详细信息

    Table  1.   Details of image data for three regions in the AIR-PolSAR-Seg-2.0 dataset

    地区编号 分辨率(m) 经度 纬度 图像大小(像素) 时间 成像模式 极化方式
    1 8 113°2' 23°0' 5456×4708 2016年11月 全极化条带I HH, HV, VH, VV
    2 8 116°5' 40°1' 7820×6488 2016年9月 全极化条带I HH, HV, VH, VV
    3 8 121°7' 31°2' 6014×4708 2019年1月 全极化条带I HH, HV, VH, VV
    下载: 导出CSV

    表  2  AIR-PolSAR-Seg-2.0数据集的地物类别对应编号及编码信息

    Table  2.   The corresponding numbers and coding information of the ground terrain categories in the AIR-PolSAR-Seg-2.0 dataset

    地物类别编号 地区1影像数据 地区2影像数据 地区3影像数据
    C1 水体(0, 0, 255) 水体(0, 0, 255) 水体(0, 0, 255)
    C2 植被(0, 255, 0) 植被(0, 255, 0) 植被(0, 255, 0)
    C3 裸地(255, 0, 0) 裸地(255, 0, 0) 裸地(255, 0, 0)
    C4 道路(0, 255, 255) 道路(0, 255, 255) 道路(0, 255, 255)
    C5 建筑(255, 255, 0) 建筑(255, 255, 0) 建筑(255, 255, 0)
    C6 山脉(255, 0, 255)
    下载: 导出CSV

    表  3  AIR-PolSAR-Seg-2.0与AIR-PolSAR-Seg数据集比较

    Table  3.   Comparison of AIR-PolSAR-Seg-2.0 and AIR-PolSAR-Seg datasets

    数据集 数据内容 分辨率 地物类别 影像区域及尺寸 样本数量及尺寸
    AIR-PolSAR-Seg-2.0数据集 L1A级SAR复数据(含幅度和
    相位图像),极化方式包括
    HH, HV, VH, VV
    8 m 共6类,分别为水体、
    植被、裸地、建筑、
    道路、山脉
    三景,尺寸分别为5456像素×
    4708像素、7820像素×6488像素
    6014像素×4708像素
    24672张,
    512像素×512像素
    AIR-PolSAR-Seg
    数据集
    L2级SAR幅度图像,极化方式
    包括HH, HV, VH, VV
    8 m 共6类,分别为住房区域、工业区、自然区、
    土地利用区、水域
    和其他区域
    一景,9082像素×9805像素 2000张,
    512像素×512像素
    下载: 导出CSV

    表  4  基于幅度数据实验中不同算法的对比结果(%)

    Table  4.   Comparative results of different methods in experiments based on amplitude data (%)

    方法每个类别的IoU/PA评价指标
    C0C1C2C3C4C5PAmPAmIoUKappa
    FCN89.33/93.4488.34/94.0375.58/79.2562.07/75.3188.58/95.0390.53/92.1592.4688.2082.4089.13
    PSPNet89.78/93.3088.22/94.0573.93/78.8260.00/70.2488.56/95.8892.55/93.1992.4187.5882.1789.02
    DeepLabV3+90.44/93.1189.54/95.1869.66/73.9863.15/76.6189.93/95.4495.98/98.1793.1288.7583.1290.08
    Point-rend90.63/93.7089.53/96.0679.87/84.3162.19/70.8289.57/95.3295.43/96.6593.2389.4884.5490.21
    DANet91.06/94.4990.51/95.6280.51/84.7667.39/78.6790.66/95.5995.62/97.2893.9291.0785.9691.24
    注:加粗项表示最优结果。
    下载: 导出CSV

    表  5  基于幅度相位融合数据实验中不同算法的对比结果 (%)

    Table  5.   Comparative results of different methods in experiments based on amplitude and phase fusion data (%)

    方法每个类别的IoU/PA评价指标
    C0C1C2C3C4C5PAmPAmIoUKappa
    FCN89.62/92.6288.39/94.6573.16/75.5261.84/72.6988.58/95.3794.60/96.9892.5587.9782.7089.23
    PSPNet89.87/93.6688.31/94.0276.38/81.3560.90/71.5188.70/95.5794.51/96.2592.5788.7383.1189.27
    DeepLabV3+89.82/91.9289.93/95.6873.78/78.4264.25/73.7690.14/96.2796.23/98.3693.3989.0784.0290.44
    Point-rend91.25/94.9890.03/94.4979.49/82.0666.19/75.3890.06/96.6095.23/97.4093.6690.1585.3890.84
    DANet91.73/94.3291.17/96.1982.38/85.6370.86/81.3591.48/95.9194.54/97.5294.4691.8287.0392.03
    注:加粗项表示最优结果。
    下载: 导出CSV
  • [1] JACKSON C R and APEL J R. Synthetic Aperture Radar Marine User’s Manual[M]. Washington: National Oceanic and Atmospheric Administration, 2004.
    [2] FU Kun, FU Jiamei, WANG Zhirui, et al. Scattering-keypoint-guided network for oriented ship detection in high-resolution and large-scale SAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 11162–11178. doi: 10.1109/JSTARS.2021.3109469.
    [3] LEE J S and POTTIER E. Polarimetric Radar Imaging: From Basics to Applications[M]. Boca Raton: CRC Press, 2017: 1–10. doi: 10.1201/9781420054989.
    [4] LIU Xu, JIAO Licheng, TANG Xu, et al. Polarimetric convolutional network for PolSAR image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(5): 3040–3054. doi: 10.1109/TGRS.2018.2879984.
    [5] PARIKH H, PATEL S, and PATEL V. Classification of SAR and PolSAR images using deep learning: A review[J]. International Journal of Image and Data Fusion, 2020, 11(1): 1–32. doi: 10.1080/19479832.2019.1655489.
    [6] BI Haixia, SUN Jian, and XU Zongben. A graph-based semisupervised deep learning model for PolSAR image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(4): 2116–2132. doi: 10.1109/TGRS.2018.2871504.
    [7] CHEN Siwei and TAO Chensong. PolSAR image classification using polarimetric-feature-driven deep convolutional neural network[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 627–631. doi: 10.1109/LGRS.2018.2799877.
    [8] 刘涛, 杨子渊, 蒋燕妮, 等. 极化SAR图像舰船目标检测研究综述[J]. 雷达学报, 2021, 10(1): 1–19. doi: 10.12000/JR20155.

    LIU Tao, YANG Ziyuan, JIANG Yanni, et al. Review of ship detection in polarimetric synthetic aperture imagery[J]. Journal of Radars, 2021, 10(1): 1–19. doi: 10.12000/JR20155.
    [9] WU Wenjin, LI Hailei, LI Xinwu, et al. PolSAR image semantic segmentation based on deep transfer learning—realizing smooth classification with small training sets[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(6): 977–981. doi: 10.1109/LGRS.2018.2886559.
    [10] XIAO Daifeng, WANG Zhirui, WU Youming, et al. Terrain segmentation in polarimetric SAR images using dual-attention fusion network[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4006005. doi: 10.1109/LGRS.2020.3038240.
    [11] FREEMAN A and DURDEN S L. A three-component scattering model for polarimetric SAR data[J]. IEEE Transactions on Geoscience and Remote Sensing, 1998, 36(3): 963–973. doi: 10.1109/36.673687.
    [12] 肖东凌, 刘畅. 基于精调的膨胀编组-交叉CNN的PolSAR地物分类[J]. 雷达学报, 2019, 8(4): 479–489. doi: 10.12000/JR19039.

    XIAO Dongling and LIU Chang. PolSAR terrain classification based on fine-tuned dilated group-cross convolution neural network[J]. Journal of Radars, 2019, 8(4): 479–489. doi: 10.12000/JR19039.
    [13] 秦先祥, 余旺盛, 王鹏, 等. 基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法[J]. 雷达学报, 2020, 9(3): 525–538. doi: 10.12000/JR20062.

    QIN Xianxiang, YU Wangsheng, WANG Peng, et al. Weakly supervised classification of PolSAR images based on sample refinement with complex-valued convolutional neural network[J]. Journal of Radars, 2020, 9(3): 525–538. doi: 10.12000/JR20062.
    [14] 邹焕新, 李美霖, 马倩, 等. 一种基于张量积扩散的非监督极化SAR图像地物分类方法[J]. 雷达学报, 2019, 8(4): 436–447. doi: 10.12000/JR19057.

    ZOU Huanxin, LI Meilin, MA Qian, et al. An unsupervised PolSAR image classification algorithm based on tensor product graph diffusion[J]. Journal of Radars, 2019, 8(4): 436–447. doi: 10.12000/JR19057.
    [15] FANG Zheng, ZHANG Gong, DAI Qijun, et al. Hybrid attention-based encoder-decoder fully convolutional network for PolSAR image classification[J]. Remote Sensing, 2023, 15(2): 526. doi: 10.3390/rs15020526.
    [16] ZHANG Mengxuan, SHI Jingyuan, LIU Long, et al. Evolutionary complex-valued CNN for PolSAR image classification[C]. 2024 International Joint Conference on Neural Networks, Yokohama, Japan, 2024: 1–8. doi: 10.1109/IJCNN60899.2024.10650936.
    [17] SUN Xian, WANG Peijin, YAN Zhiyuan, et al. FAIR1M: A benchmark dataset for fine-grained object recognition in high-resolution remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 184: 116–130. doi: 10.1016/j.isprsjprs.2021.12.004.
    [18] ZAMIR W S, ARORA A, GUPTA A, et al. iSAID: A large-scale dataset for instance segmentation in aerial images[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, Long Beach, USA, 2019: 28–37.
    [19] YANG Yi and NEWSAM S. Bag-of-visual-words and spatial extensions for land-use classification[C]. The 18th SIGSPATIAL International Conference on Advances in Geographic Information Systems, San Jose, USA, 2010: 270–279. doi: 10.1145/1869790.1869829.
    [20] ROTTENSTEINER F, SOHN G, GERKE M, et al. ISPRS semantic labeling contest[C]. Photogrammetric Computer Vision, Zurich, Switzerland, 2014: 5–7.
    [21] CHENG Gong, HAN Junwei, and LU Xiaoqiang. Remote sensing image scene classification: Benchmark and state of the art[J]. Proceedings of the IEEE, 2017, 105(10): 1865–1883. doi: 10.1109/JPROC.2017.2675998.
    [22] SHENG Guofeng, YANG Wen, XU Tao, et al. High-resolution satellite scene classification using a sparse coding based multiple feature combination[J]. International Journal of Remote Sensing, 2012, 33(8): 2395–2412. doi: 10.1080/01431161.2011.608740.
    [23] LIU Xu, JIAO Licheng, LIU Fang, et al. PolSF: PolSAR image datasets on San Francisco[C]. The 5th IFIP TC 12 International Conference on Intelligence Science, Xi’an, China, 2022: 214–219. doi: 10.1007/978-3-031-14903-0_23.
    [24] WANG Zhirui, ZENG Xuan, YAN Zhiyuan, et al. AIR-PolSAR-Seg: A large-scale data set for terrain segmentation in complex-scene PolSAR images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 3830–3841. doi: 10.1109/JSTARS.2022.3170326.
    [25] HOCHSTUHL S, PFEFFER N, THIELE A, et al. Pol-InSAR-island—a benchmark dataset for multi-frequency pol-InSAR data land cover classification[J]. ISPRS Open Journal of Photogrammetry and Remote Sensing, 2023, 10: 100047. doi: 10.1016/j.ophoto.2023.100047.
    [26] WEST R D, HENRIKSEN A, STEINBACH E, et al. High-resolution fully-polarimetric synthetic aperture radar dataset[J]. Discover Geoscience, 2024, 2(1): 83. doi: 10.1007/s44288-024-00090-6.
    [27] LONG J, SHELHAMER E, and DARRELL T. Fully convolutional networks for semantic segmentation[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 3431–3440. doi: 10.1109/CVPR.2015.7298965.
    [28] ZHAO Hengshuang, SHI Jianping, QI Xiaojuan, et al. Pyramid scene parsing network[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6230–6239. doi: 10.1109/CVPR.2017.660.
    [29] CHEN L C, ZHU Yukun, PAPANDREOU G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]. The 15th European Conference on Computer Vision, Munich, Germany, 2018: 833–851. doi: 10.1007/978-3-030-01234-2_49.
    [30] KIRILLOV A, WU Yuxin, HE Kaiming, et al. PointRend: Image segmentation as rendering[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 9796–9805. doi: 10.1109/CVPR42600.2020.00982.
    [31] FU Jun, LIU Jing, TIAN Haijie, et al. Dual attention network for scene segmentation[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 3141–3149. doi: 10.1109/CVPR.2019.00326.
  • 加载中
图(8) / 表(5)
计量
  • 文章访问数: 761
  • HTML全文浏览量: 139
  • PDF下载量: 214
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-11-29
  • 修回日期:  2025-03-23
  • 网络出版日期:  2025-03-31
  • 刊出日期:  2025-04-28

目录

/

返回文章
返回