基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法

秦先祥 余旺盛 王鹏 陈天平 邹焕新

秦先祥, 余旺盛, 王鹏, 等. 基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法[J]. 雷达学报, 2020, 9(3): 525–538. doi:  10.12000/JR20062
引用本文: 秦先祥, 余旺盛, 王鹏, 等. 基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法[J]. 雷达学报, 2020, 9(3): 525–538. doi:  10.12000/JR20062
QIN Xianxiang, YU Wangsheng, WANG Peng, et al. Weakly supervised classification of PolSAR images based on sample refinement with complex-valued convolutional neural network[J]. Journal of Radars, 2020, 9(3): 525–538. doi:  10.12000/JR20062
Citation: QIN Xianxiang, YU Wangsheng, WANG Peng, et al. Weakly supervised classification of PolSAR images based on sample refinement with complex-valued convolutional neural network[J]. Journal of Radars, 2020, 9(3): 525–538. doi:  10.12000/JR20062

基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法

doi: 10.12000/JR20062
基金项目: 国家自然科学基金(41601436, 61403414, 61703423),陕西省自然科学基础研究计划(2018JM4029)
详细信息
    作者简介:

    秦先祥(1986–),男,广西人,空军工程大学信息与导航学院讲师,主要研究方向为SAR图像智能处理与分析。E-mail: qinxianxiang@126.com

    余旺盛(1985–),男,湖南人,空军工程大学信息与导航学院讲师,主要研究方向为计算机视觉与图像处理。E-mail: xing_fu_yu@sina.com

    王 鹏(1985–),男,山西人,空军工程大学信息与导航学院副教授,硕士生导师,主要研究方向为信息融合处理与分布式协同控制。E-mail: blueking1985@hotmail.com

    陈天平(1979–),男,四川人,空军工程大学信息与导航学院讲师,主要研究方向为智能信息处理技术。E-mail: chentianping1979@163.com

    邹焕新(1973–),男,广东人,国防科技大学电子科学学院教授,硕士生导师,主要研究方向为SAR图像解译、多源信息融合、计算机视觉、图像处理、模式识别等。E-mail: hxzou2008@163.com

    通讯作者:

    秦先祥 qinxianxiang@126.com

  • 责任主编:王爽 Corresponding Editor: WANG Shuang
  • 中图分类号: TP958

Weakly Supervised Classification of PolSAR Images Based on Sample Refinement with Complex-Valued Convolutional Neural Network

Funds: The National Natural Science Foundation of China (41601436, 61403414, 61703423), The Natural Science Basic Research Plan in Shaanxi Province (2018JM4029)
More Information
  • 摘要: 针对物体框标注样本包含大量异质成分的问题,该文提出了一种基于复值卷积神经网络(CV-CNN)样本精选的极化SAR(PolSAR)图像弱监督分类方法。该方法首先采用CV-CNN对物体框标注样本进行迭代精选,并同时训练出可直接用于分类的CV-CNN。然后利用所训练的CV-CNN完成极化SAR图像的分类。基于3幅实测极化SAR图像的实验结果表明,该文方法能够有效剔除异质样本,与采用原始物体框标注样本的传统全监督分类方法相比可以获得明显更优的分类结果,并且该方法采用CV-CNN比采用经典的支持矢量机(SVM)或Wishart分类器性能更优。
  • 图  1  极化SAR数据样本的像素级标注与物体框标注对比示意图

    Figure  1.  Comparison illustration of pixel-level label and bounding-box label for a PolSAR data sample

    图  2  物体框标注样本精选方法流程图

    Figure  2.  Flowchart of refining method for bounding-box labelled samples

    图  3  CV-CNN的结构示意图

    Figure  3.  Illustration of architecture of CV-CNN

    图  4  实验图像数据1

    Figure  4.  Experimental image data 1

    图  5  实验图像数据2

    Figure  5.  Experimental image data 2

    图  6  实验图像数据3

    Figure  6.  Experimental image data 3

    图  7  实验数据1的物体框标注样本集的Pauli-RGB图像及3种方法所得分类结果和精选像素级标签

    Figure  7.  Pauli-RGB image of the bounding-box labelled sample set of experimental data 1 and its classification results and refined pixel-level labels with three methods

    图  8  实验数据2的物体框标注样本集的Pauli-RGB图像及3种方法所得分类结果和精选像素级标签

    Figure  8.  Pauli-RGB image of the bounding-box labelled sample set of experimental data 2 and its classification results and refined pixel-level labels with three methods

    图  9  实验数据3的物体框标注样本集的Pauli-RGB图像及3种方法所得分类结果和精选像素级标签

    Figure  9.  Pauli-RGB image of the bounding-box labelled sample set of experimental data 3 and its classification results and refined pixel-level labels with three methods

    图  10  实验数据1训练样本集的分类结果变化率曲线

    Figure  10.  Curves of change rate of classification results on training set of experimental data 1

    图  11  实验数据1的全监督和弱监督分类结果

    Figure  11.  Classification results of experimental data 1 by fully-supervised and proposed weakly-supervised methods

    图  12  实验数据2的全监督和弱监督分类结果

    Figure  12.  Classification results of experimental data 2 by fully-supervised and proposed weakly-supervised methods

    图  13  实验数据3的全监督和弱监督分类结果

    Figure  13.  Classification results of experimental data 3 by fully-supervised and proposed weakly-supervised methods

    表  1  实验数据1的分类精度(%)、总体精度(%)和Kappa系数

    Table  1.   Classification accuracy (%), overall accuracy (%) and Kappa coefficient for experimental data 1

    方法蚕豆豌豆树林苜蓿小麦1甜菜土豆裸地草地
    CV-CNN全监督56.4389.0299.2120.3797.1280.6349.86100.0030.96
    CV-CNN弱监督56.1498.3585.1892.7288.2389.0070.87100.0085.56
    Wishart全监督56.5181.1988.1539.8854.7435.4967.110.680.11
    Wishart弱监督61.6380.5281.4685.9073.7191.2163.8499.7162.02
    SVM全监督85.4374.3771.8067.5268.3752.5978.2121.050
    SVM弱监督81.7773.2068.4458.2661.4255.4575.9927.180
    方法油菜籽大麦小麦2小麦3水域建筑区总体精度Kappa系数
    CV-CNN全监督48.3595.7494.3691.2990.4196.2276.870.7473
    CV-CNN弱监督48.2193.6695.6989.8181.6999.3784.580.8323
    Wishart全监督19.4897.4876.3253.1680.5191.8158.020.5440
    Wishart弱监督44.4787.0267.3668.5837.4790.1369.380.6674
    SVM全监督31.4229.4739.9075.9777.5167.7557.090.5352
    SVM弱监督36.5134.7639.5170.2476.7270.2756.580.5291
    下载: 导出CSV

    表  3  实验数据3的分类精度(%)、总体精度(%)和Kappa系数

    Table  3.   Classification accuracy (%), overall accuracy (%) and Kappa coefficient for experimental data 3

    方法水域植被城区A城区B城区C总体精度Kappa系数
    CV-CNN全监督99.3782.377.5588.8991.5774.560.6466
    CV-CNN弱监督99.4391.9881.8480.0982.8491.050.8731
    Wishart全监督95.5863.3423.1433.0532.0345.760.3219
    Wishart弱监督86.6861.3251.5224.9931.7745.920.3239
    SVM全监督85.5326.7156.1323.4438.9954.340.3802
    SVM弱监督88.5127.7156.5527.4435.8654.870.3940
    下载: 导出CSV

    表  2  实验数据2的分类精度(%)、总体精度(%)和Kappa系数

    Table  2.   Classification accuracy (%), overall accuracy (%) and Kappa coefficient for experimental data 2

    方法农田植被水域建筑区总体精度Kappa系数
    CV-CNN全监督82.4290.4198.7964.9182.140.7458
    CV-CNN弱监督93.3491.3898.7675.8890.020.8537
    Wishart全监督99.7655.950.0513.0736.360.1515
    Wishart弱监督99.7634.090.0120.2234.540.1272
    SVM全监督84.3359.4271.1852.2273.520.6073
    SVM弱监督88.0752.0593.6638.7970.400.5797
    下载: 导出CSV
  • [1] LEE J S and POTTIER E. Polarimetric Radar Imaging: From Basics to Applications[M]. Boca Raton, USA: CRC Press, 2009.
    [2] SALEHI M, SAHEBI M R, and MAGHSOUDI Y. Improving the accuracy of urban land cover classification using Radarsat-2 PolSAR data[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(4): 1394–1401. doi:  10.1109/JSTARS.2013.2273074
    [3] VOORMANSIK K, JAGDHUBER T, ZALITE K, et al. Observations of cutting practices in agricultural grasslands using polarimetric SAR[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(4): 1382–1396. doi:  10.1109/JSTARS.2015.2503773
    [4] YAMAGUCHI Y. Disaster monitoring by fully polarimetric SAR data acquired with ALOS-PALSAR[J]. Proceedings of the IEEE, 2012, 100(10): 2851–2860. doi:  10.1109/JPROC.2012.2195469
    [5] 折小强, 仇晓兰, 雷斌, 等. 一种极化熵结合混合GEV模型的全极化SAR潮间带区域地物分类方法[J]. 雷达学报, 2017, 6(5): 554–563. doi:  10.12000/JR16149

    SHE Xiaoqiang, QIU Xiaolan, LEI Bin, et al. A classification method based on polarimetric entropy and GEV mixture model for intertidal area of PolSAR image[J]. Journal of Radars, 2017, 6(5): 554–563. doi:  10.12000/JR16149
    [6] LEE J S, GRUNES M R, AINSWORTH T L, et al. Unsupervised classification using polarimetric decomposition and the complex Wishart classifier[J]. IEEE Transactions on Geoscience and Remote Sensing, 1999, 37(5): 2249–2258. doi:  10.1109/36.789621
    [7] LEE J S, GRUNES M R, POTTIER E, et al. Unsupervised terrain classification preserving polarimetric scattering characteristics[J]. IEEE Transactions on Geoscience and Remote Sensing, 2004, 42(4): 722–731. doi:  10.1109/TGRS.2003.819883
    [8] ZOU Huanxin, LI Meilin, SHAO Ningyuan, et al. Superpixel-oriented unsupervised classification for polarimetric SAR images based on consensus similarity network fusion[J]. IEEE Access, 2019, 7: 78347–78366. doi:  10.1109/ACCESS.2019.2922473
    [9] LIU Chi, LI Hengchao, LIAO Wenzhi, et al. Variational textured dirichlet process mixture model with pairwise constraint for unsupervised classification of polarimetric SAR images[J]. IEEE Transactions on Image Processing, 2019, 28(8): 4145–4160. doi:  10.1109/TIP.2019.2906009
    [10] 钟能, 杨文, 杨祥立, 等. 基于混合Wishart模型的极化SAR图像非监督分类[J]. 雷达学报, 2017, 6(5): 533–540. doi:  10.12000/JR16133

    ZHONG Neng, YANG Wen, YANG Xiangli, et al. Unsupervised classification for polarimetric synthetic aperture radar images based on Wishart mixture models[J]. Journal of Radars, 2017, 6(5): 533–540. doi:  10.12000/JR16133
    [11] 孙勋, 黄平平, 涂尚坦, 等. 利用多特征融合和集成学习的极化SAR图像分类[J]. 雷达学报, 2016, 5(6): 692–700. doi:  10.12000/JR15132

    SUN Xun, HUANG Pingping, TU Shangtan, et al. Polarimetric SAR image classification using multiple-feature fusion and ensemble learning[J]. Journal of Radars, 2016, 5(6): 692–700. doi:  10.12000/JR15132
    [12] 胡涛, 李卫华, 秦先祥, 等. 基于深度卷积神经网络和条件随机场模型的PolSAR图像地物分类方法[J]. 雷达学报, 2019, 8(4): 471–478. doi:  10.12000/JR18065

    HU Tao, LI Weihua, QIN Xianxiang, et al. Terrain classification of polarimetric synthetic aperture radar images based on deep learning and conditional random field model[J]. Journal of Radars, 2019, 8(4): 471–478. doi:  10.12000/JR18065
    [13] 邹焕新, 李美霖, 马倩, 等. 一种基于张量积扩散的非监督极化SAR图像地物分类方法[J]. 雷达学报, 2019, 8(4): 436–447. doi:  10.12000/JR19057

    ZOU Huanxin, LI Meilin, MA Qian, et al. An unsupervised PolSAR image classification algorithm based on tensor product graph diffusion[J]. Journal of Radars, 2019, 8(4): 436–447. doi:  10.12000/JR19057
    [14] HOU Biao, KOU Hongda, and JIAO Licheng. Classification of polarimetric SAR images using multilayer autoencoders and superpixels[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(7): 3072–3081. doi:  10.1109/JSTARS.2016.2553104
    [15] JIAO Licheng and LIU Fang. Wishart deep stacking network for fast PolSAR image classification[J]. IEEE Transactions on Image Processing, 2016, 25(7): 3273–3286. doi:  10.1109/TIP.2016.2567069
    [16] ZHOU Yu, WANG Haipeng, XU Feng, et al. Polarimetric SAR image classification using deep convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12): 1935–1939. doi:  10.1109/LGRS.2016.2618840
    [17] ZHANG Zhimian, WANG Haipeng, XU Feng, et al. Complex-valued convolutional neural network and its application in polarimetric SAR image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(12): 7177–7188. doi:  10.1109/TGRS.2017.2743222
    [18] CHEN Siwei and TAO Chensong. PolSAR image classification using polarimetric-feature-driven deep convolutional neural network[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 627–631. doi:  10.1109/LGRS.2018.2799877
    [19] SALEH F S, ALIAKBARIAN M S, SALZMANN M, et al. Incorporating network built-in priors in weakly-supervised semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(6): 1382–1396. doi:  10.1109/TPAMI.2017.2713785
    [20] 魏云超, 赵耀. 基于DCNN的图像语义分割综述[J]. 北京交通大学学报, 2016, 40(4): 82–91. doi:  10.11860/j.issn.1673-0291.2016.04.013

    WEI Yunchao and ZHAO Yao. A review on image semantic segmentation based on DCNN[J]. Journal of Beijing Jiaotong University, 2016, 40(4): 82–91. doi:  10.11860/j.issn.1673-0291.2016.04.013
    [21] 郑宝玉, 王雨, 吴锦雯, 等. 基于深度卷积神经网络的弱监督图像语义分割[J]. 南京邮电大学学报: 自然科学版, 2018, 38(5): 1–12.

    ZHENG Baoyu, WANG Yu, WU Jinwen, et al. Weakly supervised learning based on deep convolutional neural networks for image semantic segmentation[J]. Journal of Nanjing University of Posts and Telecommunications:Natural Science Edition, 2018, 38(5): 1–12.
    [22] XU Jia, SCHWING A G, and URTASUN R. Learning to segment under various forms of weak supervision[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, USA, 2015: 3781–3790.
    [23] PAPANDREOU G, CHEN L C, MURPHY K P, et al. Weakly-and semi-supervised learning of a deep convolutional network for semantic image segmentation[C]. 2015 IEEE International Conference on Computer Vision. Santiago, Chile, 2015: 1742–1750.
    [24] KHOREVA A, BENENSON R, JAN H, et al. Simple does it: Weakly supervised instance and semantic segmentation[C]. The IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA, 2017: 876–885.
    [25] WEI Yunchao, SHEN Zhiqiang, CHENG Bowen, et al. TS2C: Tight box mining with surrounding segmentation context for weakly supervised object detection[C]. The 15th European Conference on Computer Vision. Munich, Germany, 2018.
    [26] 韩铮, 肖志涛. 基于纹元森林和显著性先验的弱监督图像语义分割方法[J]. 电子与信息学报, 2018, 40(3): 610–617. doi:  10.11999/JEIT170472

    HAN Zheng and XIAO Zhitao. Weakly supervised semantic segmentation based on semantic texton forest and saliency prior[J]. Journal of Electronics &Information Technology, 2018, 40(3): 610–617. doi:  10.11999/JEIT170472
    [27] YANG Wen, DAI Dengxin, WU Jun, et al. Weakly supervised Polarimetric SAR image classification with multi-modal Markov aspect model[C]. WAGNER W and SZÉKELY B. ISPRS TC VⅡ Symposium-100 Years ISPRS. Vienna, Austria: IAPRS, 2010: 669–673.
    [28] YANG Wen, DAI Dengxin, TRIGGS B, et al. SAR-based terrain classification using weakly supervised hierarchical Markov aspect models[J]. IEEE Transactions on Image Processing, 2012, 21(9): 4232–4243. doi:  10.1109/TIP.2012.2199127
    [29] GOODFELLOW I, BENGIO Y, and COURVILLE A. Deep Learning[M]. Cambridge, MA: The MIT Press, 2016.
    [30] YU P, QIN A K, and CLAUSI D A. Unsupervised polarimetric SAR image segmentation and classification using region growing with edge penalty[J]. IEEE Transactions on Geoscience and Remote Sensing, 2012, 50(4): 1302–1317. doi:  10.1109/TGRS.2011.2164085
    [31] CHANG C C and LIN C J. LIBSVM-a library for support vector machines[EB/OL]. https://www.csie.ntu.edu.tw/~cjlin/libsvm/.
    [32] 周晓光. 极化SAR图像分类方法研究[D]. [博士论文], 国防科学技术大学, 2008.

    ZHOU Xiaoguang. Polarimetric SAR image classification[D]. [Ph.D. dissertation], National University of Defense Technology, 2008.
  • [1] 陈诗强, 洪文.  基于极化轴比参数的圆极化波发射误差分析方法 . 雷达学报, 2020, 9(2): 343-353. doi: 10.12000/JR19063
    [2] 庞雷, 张风丽, 王国军, 刘娜, 邵芸, 张家萌, 赵钰川, 庞蕾.  建筑物Ku波段极化SAR成像仿真及损毁评估特征分析 . 雷达学报, 2020, 9(3): 578-587. doi: 10.12000/JR20061
    [3] 滑文强, 王爽, 郭岩河, 谢雯.  基于邻域最小生成树的半监督极化SAR图像分类方法 . 雷达学报, 2019, 8(4): 458-470. doi: 10.12000/JR18104
    [4] 张晓玲, 张天文, 师君, 韦顺军.  基于深度分离卷积神经网络的高速高精度SAR舰船检测 . 雷达学报, 2019, 8(6): 841-851. doi: 10.12000/JR19111
    [5] 张腊梅, 张思雨, 董洪伟, 朱厦.  基于Pinball损失函数支持向量机的极化SAR图像鲁棒分类 . 雷达学报, 2019, 8(4): 448-457. doi: 10.12000/JR19055
    [6] 张向荣, 于心源, 唐旭, 侯彪, 焦李成.  基于马尔科夫判别谱聚类的极化SAR图像分类方法 . 雷达学报, 2019, 8(4): 425-435. doi: 10.12000/JR19059
    [7] 胡涛, 李卫华, 秦先祥, 王鹏, 余旺盛, 李军.  基于深度卷积神经网络和条件随机场模型的PolSAR图像地物分类方法 . 雷达学报, 2019, 8(4): 471-478. doi: 10.12000/JR18065
    [8] 苏宁远, 陈小龙, 关键, 牟效乾, 刘宁波.  基于卷积神经网络的海上微动目标检测与分类方法 . 雷达学报, 2018, 7(5): 565-574. doi: 10.12000/JR18077
    [9] 钟能, 杨文, 杨祥立, 郭威.  基于混合Wishart模型的极化SAR图像非监督分类 . 雷达学报, 2017, 6(5): 533-540. doi: 10.12000/JR16133
    [10] 王思雨, 高鑫, 孙皓, 郑歆慰, 孙显.  基于卷积神经网络的高分辨率SAR图像飞机目标检测方法 . 雷达学报, 2017, 6(2): 195-203. doi: 10.12000/JR17009
    [11] 赵娟萍, 郭炜炜, 柳彬, 崔世勇, 张增辉, 郁文贤.  基于概率转移卷积神经网络的含噪标记SAR图像分类 . 雷达学报, 2017, 6(5): 514-523. doi: 10.12000/JR16140
    [12] 杨文, 钟能, 严天恒, 杨祥立.  基于黎曼流形的极化SAR图像分类 . 雷达学报, 2017, 6(5): 433-441. doi: 10.12000/JR17031
    [13] 邹焕新, 罗天成, 张月, 周石琳.  基于组合条件随机场的极化SAR图像监督地物分类 . 雷达学报, 2017, 6(5): 541-553. doi: 10.12000/JR16109
    [14] 田壮壮, 占荣辉, 胡杰民, 张军.  基于卷积神经网络的SAR图像目标识别研究 . 雷达学报, 2016, 5(3): 320-325. doi: 10.12000/JR16037
    [15] 计科峰, 王海波, 冷祥光, 邢相薇, 康利鸿.  星载简缩极化SAR船舶目标检测技术研究 . 雷达学报, 2016, 5(6): 607-619. doi: 10.12000/JR16083
    [16] 张杰, 张晰, 范陈清, 孟俊敏.  极化SAR在海洋探测中的应用与探讨 . 雷达学报, 2016, 5(6): 596-606. doi: 10.12000/JR16124
    [17] 洪文.  基于混合极化架构的极化SAR:原理与应用(中英文) . 雷达学报, 2016, 5(6): 559-595. doi: 10.12000/JR16074
    [18] 邢艳肖, 张毅, 李宁, 王宇, 胡桂香.  一种联合特征值信息的全极化SAR图像监督分类方法 . 雷达学报, 2016, 5(2): 217-227. doi: 10.12000/JR16019
    [19] 滑文强, 王爽, 侯彪.  基于半监督学习的SVM-Wishart极化SAR图像分类方法 . 雷达学报, 2015, 4(1): 93-98. doi: 10.12000/JR14138
    [20] 孟藏珍, 袁定波, 许稼, 彭石宝, 王晓军.  基于神经网络分类的异类传感器目标关联算法 . 雷达学报, 2012, 1(4): 399-405. doi: 10.3724/SP.J.1300.2012.20087
  • 加载中
图(13) / 表ll (3)
计量
  • 文章访问数:  472
  • HTML全文浏览量:  205
  • PDF下载量:  104
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-05-13
  • 修回日期:  2020-06-26
  • 网络出版日期:  2020-07-04
  • 刊出日期:  2020-06-28

基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法

doi: 10.12000/JR20062
    基金项目:  国家自然科学基金(41601436, 61403414, 61703423),陕西省自然科学基础研究计划(2018JM4029)
    作者简介:

    秦先祥(1986–),男,广西人,空军工程大学信息与导航学院讲师,主要研究方向为SAR图像智能处理与分析。E-mail: qinxianxiang@126.com

    余旺盛(1985–),男,湖南人,空军工程大学信息与导航学院讲师,主要研究方向为计算机视觉与图像处理。E-mail: xing_fu_yu@sina.com

    王 鹏(1985–),男,山西人,空军工程大学信息与导航学院副教授,硕士生导师,主要研究方向为信息融合处理与分布式协同控制。E-mail: blueking1985@hotmail.com

    陈天平(1979–),男,四川人,空军工程大学信息与导航学院讲师,主要研究方向为智能信息处理技术。E-mail: chentianping1979@163.com

    邹焕新(1973–),男,广东人,国防科技大学电子科学学院教授,硕士生导师,主要研究方向为SAR图像解译、多源信息融合、计算机视觉、图像处理、模式识别等。E-mail: hxzou2008@163.com

    通讯作者: 秦先祥 qinxianxiang@126.com
  • 责任主编:王爽 Corresponding Editor: WANG Shuang
  • 中图分类号: TP958

摘要: 针对物体框标注样本包含大量异质成分的问题,该文提出了一种基于复值卷积神经网络(CV-CNN)样本精选的极化SAR(PolSAR)图像弱监督分类方法。该方法首先采用CV-CNN对物体框标注样本进行迭代精选,并同时训练出可直接用于分类的CV-CNN。然后利用所训练的CV-CNN完成极化SAR图像的分类。基于3幅实测极化SAR图像的实验结果表明,该文方法能够有效剔除异质样本,与采用原始物体框标注样本的传统全监督分类方法相比可以获得明显更优的分类结果,并且该方法采用CV-CNN比采用经典的支持矢量机(SVM)或Wishart分类器性能更优。

注释:

English Abstract

秦先祥, 余旺盛, 王鹏, 等. 基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法[J]. 雷达学报, 2020, 9(3): 525–538. doi:  10.12000/JR20062
引用本文: 秦先祥, 余旺盛, 王鹏, 等. 基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法[J]. 雷达学报, 2020, 9(3): 525–538. doi:  10.12000/JR20062
QIN Xianxiang, YU Wangsheng, WANG Peng, et al. Weakly supervised classification of PolSAR images based on sample refinement with complex-valued convolutional neural network[J]. Journal of Radars, 2020, 9(3): 525–538. doi:  10.12000/JR20062
Citation: QIN Xianxiang, YU Wangsheng, WANG Peng, et al. Weakly supervised classification of PolSAR images based on sample refinement with complex-valued convolutional neural network[J]. Journal of Radars, 2020, 9(3): 525–538. doi:  10.12000/JR20062
    • 合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式微波成像传感器,可以不受云雨等天气影响,全天时、全天候成像,能够获取地物或目标丰富的信息。与常规的单极化SAR相比,极化SAR能同时工作在多种极化收发组合下,信息获取能力更强,这使得极化SAR图像的应用倍受关注[1]。极化SAR图像分类是当前SAR图像解译领域的一个热点研究方向,在军事和民用领域都具有重要的应用价值。例如,在军事上可用于目标毁伤评估和态势理解等;在民用方面可用于城市规划、农作物生长监视、灾情评估和海洋开发评估等[2-5]

      根据是否采用标记的训练样本,极化SAR图像分类方法可以分为无监督[6-10]和监督[5,11-13]分类方法两大类。前者无需标注的训练样本,主要从数据自身特点出发,利用数据间的相似性实现数据的聚类划分,或根据极化分解方法将各像素划分为特定的散射机理类别。这类方法通常易于实现、自动化程度较高,但在实际中也面临诸多问题:例如类别数目难以有效确定,或者感兴趣的类别与散射机理类别不一致而难以满足实际需求等。相比之下,后者先获得标注的训练样本,这些样本不仅反映了用户对类别数目的要求,还蕴含了各指定类别的数据特点,从而能够更有针对性地训练分类器,分类精度往往更高,所得结果与具体应用需求也更为吻合。

      近年来,随着深度学习理论与技术的发展,基于深度学习尤其是卷积神经网络(Convolutional Neural Network, CNN)的方法在极化SAR图像分类中受到大量关注,并展现出比很多传统分类方法明显更优的分类性能[14-19]。例如,为了发挥CNN优良的分类能力,文献[16]提出了一种基于CNN的以像素邻域为基本分类单元的极化SAR图像分类方法;为了能够直接处理极化SAR图像复数据,文献[17]研究了复值CNN(Complex-Valued CNN,CV-CNN)并应用于极化SAR图像分类;为了弥补CNN在小样本下性能的不足,文献[18]引入极化特征驱动CNN来实现极化SAR图像分类。目前,这些方法以监督分类方法为主,其性能的发挥通常需要大量标注训练样本作支撑,并且受样本的标注质量影响显著。实际中,与普通光学图像相比,极化SAR图像的视觉直观性较弱,其标注常需要丰富的经验或专业知识,因此要完成极化SAR图像的高质量标注非常费时费力,这很大程度上限制了监督方法尤其是基于深度学习的监督方法在极化SAR图像分类中的应用。

      近年来,为减少监督方法对样本标注质量的依赖,弱监督分类方法受到了广泛关注[19-26]。与传统采用精细标注的监督(或称为全监督)分类方法不同,弱监督分类方法利用信息较“弱”的粗略标注的样本,但通过充分挖掘样本信息来弥补标注精度低带来的不良影响。弱监督分类中粗略标注样本的典型方法包括物体框标注、点标注、简笔画标注和图像级标注等[20,21]。相比于传统像素级精细标注方法,这些方法简单易行,实现效率高。

      当前,弱监督分类方法在计算机视觉领域得到快速发展,提出了诸多解决方案:如文献[19]提出先利用目标识别预训练网络来获取物体掩膜的策略;文献[23]将弱监督标签作为隐变量来优化分类网络;文献[26]提出在条件随机场框架下结合显著性先验的方法等等。尽管如此,限于现实中相对有限的样本数据集,弱监督分类方法在SAR图像处理领域还处于初步探索阶段[27,28],发展相对滞后。鉴于此,本文针对采用物体框样本标注的极化SAR图像弱监督分类问题,研究了一种基于CV-CNN样本精选的极化SAR图像弱监督分类方法。基于3幅实测极化SAR图像的实验结果验证了本文方法的有效性。

    • 对于常规单视极化SAR图像,每个像素可由一个Pauli散射矢量进行表示[1]

      $${{{k}}_{\rm{P}}} = {\left[ {{S_{{\rm{hh}}}} + {S_{{\rm{vv}}}}\;\;{S_{{\rm{hh}}}} - {S_{{\rm{vv}}}}\;\;2{S_{{\rm{hv}}}}} \right]^{\rm{T}} }/\sqrt 2 $$ (1)

      其中,上标${\rm{T}} $表示转置运算,${\rm{h}}$${\rm{v}}$分别表示水平和垂直极化,${S_{{\rm{hv}}}}$表示水平极化发射垂直极化接收的散射分量,${S_{\rm{hh}}}$${S_{\rm{vv}}}$的意义类似。为抑制相干斑噪声或压缩数据,极化SAR图像数据往往采用多视处理[1]。多视极化SAR图像的各像素可由一个极化相干矩阵进行表示[1]

      $${{T}} = \left\langle {{{{k}}_{\rm{P}}}{{k}}_{\rm{P}}^{\rm{H}} } \right\rangle = \left[ {\begin{array}{*{20}{c}} {{T_{11}}}&{{T_{12}}}&{{T_{13}}} \\ {{T_{21}}}&{{T_{22}}}&{{T_{23}}} \\ {{T_{31}}}&{{T_{32}}}&{{T_{33}}} \end{array}} \right]$$ (2)

      其中$ < \cdot > $表示取集平均运算,上标${\rm{H}} $表示共轭转置运算。

    • CNN的结构通常由输入层、卷积层、池化层、全连接层和输出层组成[29]。常规CNN定义于实数域,其网络权重和网络中传递的数据均为实数。实际中很多数据如SAR图像为复数形式,这使得常规CNN不适合用于直接处理这些数据。为充分利用SAR图像中所蕴含的信息,如幅度和相位信息,文献[17]研究了CV-CNN并应用于极化SAR图像的分类。

      CV-CNN可视为常规CNN从实数域到复数域的扩展,其网络参数均为复数,也允许网络的输入为复数形式,因此可以直接用于处理如极化SAR图像等复数据,更好地保留原始复数据所蕴含的信息。与常规CNN一样,CV-CNN通常也包括输入层、卷积层、池化层、全连接层和输出层等网络层。对于卷积层,其功能是实现输入复数据的卷积运算。设CV-CNN的第$l$层为卷积层,其有${M^{\left( l \right)}}$个输入特征图和${N^{\left( l \right)}}$个输出特征图,记其第$m$个输入特征图和第$n$个输出特征图分别为${{O}}_m^{\left( {l - 1} \right)}$${{O}}_n^{\left( l \right)}$,则有[17]

      $$ \begin{split} & {{O}}_n^{\left( l \right)} = f\left( {{\rm{Re}} \left[ {{{V}}_n^{\left( l \right)}} \right]} \right) + {\rm j}f\left( {{\rm{Im}} \left[ {{{V}}_n^{\left( l \right)}} \right]} \right),\\ & \quad n = 1,2,···,{N^{\left( l \right)}} \end{split} $$ (3)

      其中,${\rm j}$为虚数单位,${\rm{Re}} \left[ \cdot \right]$${\rm{Im}} \left[ \cdot \right]$分别表示求复数的实部和虚部,$f\left( \cdot \right)$为一个非线性激活函数(本文中采用Sigmoid函数[29]),${{V}}_n^{\left( l \right)}$为一个中间量

      $$ \begin{split} {{V}}_n^{\left( l \right)} =\,& \sum\limits_m {{{w}}_{nm}^{\left( l \right)} * {{O}}_m^{\left( {l - 1} \right)}} + {{b}}_n^{\left( l \right)} \\ = \,& \sum\limits_m \left( {\rm{Re}} \left[ {{{w}}_{nm}^{\left( l \right)}} \right] * {\rm{Re}} \left[ {{{O}}_m^{\left( {l - 1} \right)}} \right]\right. \\ & \left.- {\rm{Im}} \left[ {{{w}}_{nm}^{\left( l \right)}} \right] * {\rm{Im}} \left[ {{{O}}_m^{\left( {l - 1} \right)}} \right] \right) \\ & + {\rm j}\sum\limits_m \left( {\rm{Re}} \left[ {{{w}}_{nm}^{\left( l \right)}} \right] * {\rm{Im}} \left[ {{{O}}_m^{\left( {l - 1} \right)}} \right]\right. \\ & \left.+ {\rm{Im}} \left[ {{{w}}_{nm}^{\left( l \right)}} \right] * {\rm{Re}} \left[ {{{O}}_m^{\left( {l - 1} \right)}} \right] \right) + {{b}}_n^{\left( l \right)} \end{split} $$ (4)

      其中,${{w}}_{nm}^{\left( l \right)} \in {\mathbb{C}^{{S_1} \times {S_2}}},m = 1,2,···,{M^{\left( l \right)}}$为该卷积层的第$n$个大小为${S_1} \times {S_2}$的复值卷积核。

      池化层实现输入数据的降采样处理,其不仅能有效减小数据量,还可以增强特征的泛化能力。目前主要有最大值池化和平均值池化两类典型的池化方法(本文采用平均值池化方法[17,29])。全连接层将输入特征图的每个单元与输出的每个单元进行两两连接。若CV-CNN的第$k$层为全连接层,其有${M^{\left( k \right)}}$个输入单元和${N^{\left( k \right)}}$个输出单元,记其第$m$个输入单元和第$n$个输出单元的值分别为$O_m^{\left( {k - 1} \right)}$$O_n^{\left( k \right)}$,则有

      $$ \begin{split} & O_n^{\left( k \right)} = f\left( {{\rm{Re}} \left[ {U_n^{\left( k \right)}} \right]} \right) + {\rm j}\,f\left( {{\rm{Im}} \left[ {U_n^{\left( k \right)}} \right]} \right),\\ & \quad n = 1,2,···,{N^{\left( k \right)}} \end{split} $$ (5)

      其中,$U_n^{\left( k \right)} = \displaystyle\sum\nolimits_m {w_{nm}^{\left( k \right)} \cdot O_m^{\left( {k - 1} \right)}} + b_n^{\left( k \right)}$, $w_{nm}^{\left( k \right)} \in \mathbb{C}, m = 1,2,···,{M^{\left( k \right)}}$为该全连接层的第$m$个输入单元和第$n$个输出单元之间的网络权重参数。设CV-CNN的第$L$层为输出层,其输入和输出均为${N^{\left( L \right)}}$维的复向量,分别记为${{{O}}^{\left( {L - 1} \right)}}$${{{O}}^{\left( L \right)}}$,则有

      $$ \begin{split} O_n^{\left( L \right)} =\,& {\rm{Softmax}} \left( {{\rm{Re}} \left[ {O_n^{\left( {L - 1} \right)}} \right]} \right) \\ & + {\rm j}\,{\rm{Softmax}} \left( {{\rm{Im}} \left[ {O_n^{\left( {L - 1} \right)}} \right]} \right) \end{split} $$ (6)

      其中,$O_n^{\left( {L - 1} \right)}$${{{O}}^{\left( {L - 1} \right)}}$的第$n$个元素,$O_n^{\left( L \right)}$${{{O}}^{\left( L \right)}}$的第$n$个元素,Softmax函数定义为[29]

      $$ {\rm{Softmax}} \left( {{r_t}} \right) = \frac{{\exp \left( {{r_t}} \right)}}{{\displaystyle\sum\limits_k {\exp \left( {{r_k}} \right)} }} $$ (7)

      数据的真值向量采用独热编码形式[17]:设总的类别数为$C$,则第$c$类的数据是真值向量${{{g}}_c}$为一个$C$维复向量,其第$c$个元素为$1 + {\rm j}\,$,其余元素均为0,即

      $$ {g_c}\left( k \right) = \left\{ {\begin{array}{*{20}{c}} {1 + {\rm j},}&{k = c} \\ {0,}&{k \ne c} \end{array}} \right.,\;\;c,k = 1,2,···,C$$ (8)

      在输出层,通过计算输出向量${{{O}}^{\left( L \right)}}$与各个类别的真值向量之间的距离,将距离最小所对应的类别作为相应的输出类别

      $$Y = \mathop {\arg \min }\limits_{c = 1,2,···,C} \left\| {{{{O}}^{\left( L \right)}},\;{{{g}}_c}} \right\|$$ (9)

      其中$\left\| {{{{O}}^{\left( L \right)}},\;{{{g}}_c}} \right\|$表示输出向量${{{O}}^{\left( L \right)}}$与第$c$类的真值向量${{{g}}_c}$之间的距离,定义为

      $$ \begin{split} \left\| {{{{O}}^{\left( L \right)}},\;{{{g}}_c}} \right\| =\,& \sum\limits_{k = 1}^C \left( {{\left( {{\rm{Re}} \left[ {O_k^{\left( L \right)} - {g_c}\left( k \right)} \right]} \right)}^2} \right.\\ & \left.+ {{\left( {{\rm{Im}} \left[ {O_k^{\left( L \right)} - {g_c}\left( k \right)} \right]} \right)}^2} \right) \end{split} $$ (10)
    • 在传统全监督分类方法中,训练样本采用像素级标注,其精细地勾画出各个类别的分布区域。相比之下,弱监督分类方法只需要对样本数据进行粗略标注,其中典型的标注方法有物体框标注、点标注、简笔画标注和图像级标注等[20,21]。本文主要关注物体框标注的弱监督分类问题。为直观说明,图1给出了某极化SAR数据样本的像素级标注和物体框标注的对比示意图,其中图1(a)为一幅极化SAR数据样本的Pauli-RGB图像,图1(b)图1(c)分别为该图像的像素级标注和物体框标注。对比可见,像素级标注对各类别的数据类别的空间分布进行了精细标注,而物体框标注对各类别仅框出了一个大致范围(通常为矩形区域),然后将整个区域的数据标记为相应类别。

      图  1  极化SAR数据样本的像素级标注与物体框标注对比示意图

      Figure 1.  Comparison illustration of pixel-level label and bounding-box label for a PolSAR data sample

      像素级标注可以充分利用已有数据且信息的可靠性强,但显然,这种精细标注是十分费时费力的。相比之下,物体框标注实现简单,可以显著减少图像标注的时间,有利于快速构建规模较大的标注数据库,具有广泛的应用前景。然而,物体框标注的精度不高,所得标注数据中往往包含大量与标注类别不一致的数据,本文称之为异质成分。若直接将物体框标注样本用于分类器的训练,很可能会严重降低分类器性能,难以获得令人满意的分类结果。

    • 针对物体框标注样本标注精度低的问题,本文提出一种基于CV-CNN样本精选的极化SAR图像弱监督分类方法。方法主要分两步,首先通过样本精选方法将物体框标注样本转换为像素级标注样本,然后采用传统全监督方法完成极化SAR图像的分类。

    • 为了将物体框标注样本转换为像素级标注样本,本文的基本思路是从给定的物体框标注样本中剔除异质成分。本质而言,该过程是对给定标注样本的再分类,即通过判断给定样本的类别标签的正确性,精选出其中“标注正确”的样本。分析可知,尽管物体框标注比较粗略,但物体框内的样本主体通常具有正确的类标签,异质成分所占比例相对较少。因此,若先以标注的物体框内的像素样本作为像素级标注样本来训练某分类器,再用所得分类器对样本数据进行分类,当分类器性能较优时,有理由相信所得分类结果中包含很多被正确分类的样本数据。若能挑选出这部分数据,将之用于分类器的再训练,将会改善分类器的性能,进而获得更多被正确分类的样本数据。如此迭代反复,将有望剔除大部分异质成分,实现物体框标注样本数据的精选,获得类似于像素级标注的样本。图2给出了该物体框标注样本精选方法的基本流程图。

      图  2  物体框标注样本精选方法流程图

      Figure 2.  Flowchart of refining method for bounding-box labelled samples

      给定极化SAR图像物体框标注样本数据集,方法首先将各物体框的类别标签赋予到相应框内的每个像素,形成相应的伪像素级标注样本。若样本数据量较大,为提高算法效率,可通过均匀的随机采样来减少训练样本。接着,利用伪像素级标注样本训练给定的分类器,再用训练好的分类器对原始物体框标注样本数据集进行分类。接着采用一定的策略对物体框标注样本进行精选,从中选出“被正确分类”的样本并作为新的训练样本,然后返回训练样本的随机选取步骤。重复上述操作直到满足算法停止条件为止,如分类的迭代次数达到指定值或者分类结果变化率小于给定的阈值。该样本精选方法主要涉及到两方面问题,即分类器的选择以及判断样本被正确分类的策略。

      鉴于CV-CNN的优良性能,本文在样本精选中引入该类网络作为分类器。本文采用文献[17]所给的CV-CNN模型,其网络结构如图3所示。该网络包括1个输入层、2个卷积层、1个池化层、1个全连接层和1个输出层。输入层的尺寸为12×12×6,其中12×12表示输入极化SAR图像区域块的大小,6表示输入数据的通道数,这里对应极化相干矩阵中的6个元素$\left[ {{T_{11}}\;{T_{12}}\;{T_{13}}\;{T_{22}}\;{T_{23}}\;{T_{33}}} \right]$;网络中第1和第2个卷积层所包含的卷积核的数目分别为9和12,各卷积核的大小均为3×3、步长为1;此外,池化层采用2×2的平均值池化,步长为2。

      图  3  CV-CNN的结构示意图

      Figure 3.  Illustration of architecture of CV-CNN

      对样本的分类结果的正确性判断,本文通过对比样本原始标注的类别标签和分类器所得的类别标签来完成。对于某样本数据,若这两种标签一致,则认为其“被正确分类”而保留该样本,否则舍弃。显然,利用该方法所保留的样本中依然可能包含异质成分,但通过采用迭代精选的方式有望逐渐减小其所占比例。需要指出的是,通过多次迭代分类和样本精选后,本方法不仅可以将物体框标注样本转换为像素级标注样本,还同时训练出了一个可直接用于极化SAR图像分类的CV-CNN。

    • 本文针对物体框标注样本的极化SAR图像弱监督分类方法的基本步骤如下:

      步骤 1 CV-CNN分类器设计。本文直接采用文献[17]给定的CV-CNN作为分类器。

      步骤 2 按照4.1节的方式迭代训练分类器并完成物体框标注样本转换为像素级标注样本,同时获得训练好的CV-CNN。

      步骤 3 极化SAR图像分类。利用训练好的CV-CNN按照全监督分类方法方式完成极化SAR图像分类。对于待分类的极化SAR图像的各像素,选取以其为中心的邻域数据作为CV-CNN的输入,其中邻域大小与CV-CNN输入数据的尺寸保持一致[16,17]。CV-CNN输出结果即为相应像素的类别标签。

    • 为验证方法的有效性,本文采用3幅实测极化SAR图像数据进行实验。第1幅实验图像为美国NASA/JPL的AIRSAR系统1990年获取的荷兰Flevoland地区的大小为750×1024像素的极化SAR图像数据,其包含15类典型地物,分别为蚕豆、豌豆、树林、苜蓿、小麦1、甜菜、土豆、裸地、草地、油菜籽、大麦、小麦2、小麦3、水域和建筑区[30]。该图像数据的Pauli-RGB图像和真值图分别如图4(a)图4(b)所示。第2幅实验图像为美国NASA/JPL的UAVSAR系统2009年获取的美国墨西哥湾某地区的大小为1000×1000像素的极化SAR图像,其包含水域、植被、农田和建筑区四类典型地物。该数据的Pauli-RGB图像、参考光学图像和真值图分别如图5(a)图5(c)所示。第3幅实验图像为我国高分三号卫星2017年获取的美国旧金山地区的大小为2000×2000像素的极化SAR图像,其包含水域、植被和城区3大类典型地物,其中城区因结构密度和建筑物朝向的不同还可细分为城区A,B和C 3种不同类别。图6(a)图6(c) 分别给出了该数据的Pauli-RGB图像、参考光学图像以及真值图。需要指出的是,实验数据2和数据3的真值图是综合相应数据的Pauli-RGB图像和参考光学图像后通过手工标注获得,实验数据1因其获取时间较早,目前缺乏相近时间内该数据对应地区的光学图像,但其真值图已在很多文献中给出[30],可以直接用于本文算法性能的评估。

      图  4  实验图像数据1

      Figure 4.  Experimental image data 1

      图  5  实验图像数据2

      Figure 5.  Experimental image data 2

      图  6  实验图像数据3

      Figure 6.  Experimental image data 3

    • 为了验证本文物体框标注样本精选方法的有效性,本节采用上述3幅极化SAR图像进行实验。实验首先设计了一种自动构造物体框标注的弱监督样本的方法。对于每幅极化SAR图像,在图像中随机放置某个给定大小的矩形窗口,则窗口中通常包含一类或多类地物。根据给定的真值图进行判断,若窗口中某种类别的像素所占“数量比”(其像素数与窗口中的总像素之比)处于某个设定的范围,则选择该窗口内的数据作为一个物体框标注样本,其类别标注为窗口中像素数量最多的类别的标签。因此,该方法可以用于模拟标注人员在快速标注数据时获得的具有一定比例异质成分的物体框标注样本。

      在本文实验中,矩形窗口尺寸的设置与地物在图中分布范围大小有关,对于实验数据1~3,窗口大小设置分别为30×30像素、50×50像素和80×80像素。在设置“数量比”范围时,实验中作如下假设:数据标注人员在获取物体框标注样本时,通过目视判别对某类地物框出一定范围(或指定物体框大小后直接选择中心点)来获得相应的训练样本,并将其标注为框中数量最多的像素对应的类别。本实验将该“数量比”的范围设为[0.5, 0.8],其中比例下限值0.5意味着所标注的框内存在某一类别的像素占主体,而比例上限值0.8意味着要求物体框样本错误率不小于20%,从而较好地反映实际中物体框标注样本“信息较弱”的特点。需要说明的是,对于实验数据1的第15类地物即建筑物,因其分布在一个较小区域上而不利于选择满足上述条件的样本,故对该类别将数量比范围放宽到[0.3, 0.8]。对于各实验数据,各类别选取了5个物体框标注样本,进而构建出各实验数据的物体框标注样本集。图7(a)图8(a)图9(a)分别给出这3幅极化SAR图像的所选样本集拼接而成的Pauli-RGB图像,图7(b)图8(b)图9(b)分别给出了相应的伪像素级标签图。可以看到,所选取的各类训练样本不同程度地包含了一些异质成分。以实验数据3为例,所选水域样本中包含了一些陆地区域,所选植被样本中包含了部分城区,所选城区内也包含部分植被区。因此,所选择的这些样本符合物体框标注样本的特点,可以用于评价本文的弱监督分类方法的性能。

      图  7  实验数据1的物体框标注样本集的Pauli-RGB图像及3种方法所得分类结果和精选像素级标签

      Figure 7.  Pauli-RGB image of the bounding-box labelled sample set of experimental data 1 and its classification results and refined pixel-level labels with three methods

      图  8  实验数据2的物体框标注样本集的Pauli-RGB图像及3种方法所得分类结果和精选像素级标签

      Figure 8.  Pauli-RGB image of the bounding-box labelled sample set of experimental data 2 and its classification results and refined pixel-level labels with three methods

      图  9  实验数据3的物体框标注样本集的Pauli-RGB图像及3种方法所得分类结果和精选像素级标签

      Figure 9.  Pauli-RGB image of the bounding-box labelled sample set of experimental data 3 and its classification results and refined pixel-level labels with three methods

      接着对各极化SAR图像数据依次训练CV-CNN模型。为提高算法效率,首先从给定样本集中对每类随机选取300个样本用于训练CV-CNN。训练采用随机梯度下降法[17,29]进行,其中训练的超参数设置如下:学习率为0.5,样本批量大小batchsize为100,训练迭代数epoch为50。此外,算法的停止条件包含2个参数,即最大分类迭代次数和分类结果变化率阈值。通常,随着迭代次数的增加,样本精选中分类结果逐渐趋于稳定。本实验中根据经验将该最大迭代次数设为10,在样本精选结果基本趋于稳定的同时,可避免算法过多的运算以及算法不收敛时带来的死循环问题。另外,实验中分类结果变化率阈值设为0.01,即当相邻两次迭代中的分类结果的变化率小于1%时,认为样本精选结果已经足够稳定,则停止算法迭代。最后,采用本文样本精选方法即可获得各样本集的分类结果和相应的像素级标签图像。图7(c)给出了采用CV-CNN获得的实验数据1样本集的最终分类结果,图7(d)给出了相应的精选样本像素级标签,其中白色区域表示未标注区域,对应被剔除的样本,其他颜色对应不同的类别。类似地,图8(c)图9(c)分别给出了采用CV-CNN获得的实验数据2和数据3的样本集的最终分类结果,图8(d)图9(d)分别给出了相应的精选样本像素级标签图像。

      此外,为了分析本文样本精选方法中采用CV-CNN的性能,实验中还采用了经典的Wishart分类器和支持矢量机(Support Vector Machine, SVM)进行比较,即在相同的框架中分别用这两种分类器替换CV-CNN进行样本精选。Wishart分类器先利用训练样本计算各类别的类心,然后根据最小Wishart距离[1]准则实现极化SAR图像各像素的分类;SVM基于LibSVM软件[31]完成,其中模型参数采用该软件分类模块的默认参数,极化SAR图像各像素由极化相干矩阵的6个元素构成的矢量表示${{F}} = \left[ {T_{11}}\;{T_{12}} \;{T_{13}}\;{T_{22}}\;{T_{23}}\;{T_{33}} \right]$。采用这两种分类器的样本精选方法对3幅实验图像的物体框标注样本进行处理,所得的最终分类结果和精选后的像素级标签图分别如图7(e)图7(h)图8(e)图8(h)图9(e)图9(h)所示。

      对比图7图9中各样本集的Pauli-RGB图像与精选的像素级标签图可见,3种采用不同分类器的样本精选方法能不同程度地剔除异质成分,获得相对可靠的像素级标注样本。分析可知,Wishart分类器采用最小Wishart距离准则,其性能与各类别的类心估计准确度密切相关,故相应的样本精选方法对异质成分较为敏感。例如数据2的样本集中,水域样本包含部分数值较大的异质成分(如图8(a)第3列的白色区域所示),使得该类别的类心估计值发生了明显偏离,进而使得大部分水域样本被错分为农田(如图8(c)所示),相应精选的样本则明显不可靠(如图8(d)所示)。与该方法相比,采用SVM的样本精选方法性能略优,但对部分样本精选结果不佳,例如将数据1的草地(类别9)几乎错分。此外,这两种对比方法受相干斑噪声影响明显,并对自身起伏较大的类别(如城区)难以得到较好的分类结果和样本精选结果。相比之下,CV-CNN具有较优的分类性能,基于该网络的样本精选方法能够更有效地剔除异质成分,对自身起伏较大的类别依然可以得到可靠性高的像素级标注样本。

      此外,以实验数据1训练样本集的样本精选为例,图10给出了基于前述3种不同分类器的样本精选方法所得分类结果的变化率关于迭代次数的变化曲线。可以看到,对于该数据而言,3种基于不同分类器的算法在前5次迭代时所得样本分类结果的变化率较大,随后渐趋于稳定。由于这些分类结果变化率均大于所设定的阈值0.01,因此这些算法均在迭代次数达到设定的最大值时才停止。实际中可以根据具体应用需求对算法停止条件参数进行调整,如更侧重于算法的分类性能而非效率时,可以设置较大的最大迭代次数和较小的分类结果变化率阈值;反之则可减小最大迭代次数和分类变化率阈值。

      图  10  实验数据1训练样本集的分类结果变化率曲线

      Figure 10.  Curves of change rate of classification results on training set of experimental data 1

    • 为了分析给定物体框标注样本条件下本文的弱监督分类方法的性能,本节采用全监督分类方法进行对比实验。为公平比较,全监督方法与弱监督方法采用同一个分类器,它们的唯一区别在于全监督方法在训练分类器时所用训练样本为原始物体框标注对应的伪像素级标注样本,而弱监督方法采用经过本文样本精选方法获得的像素级标注样本。为了分析其中分类器的影响,实验中采用了CV-CNN、Wishart分类器和SVM 3种不同分类器进行对比。

      图11给出了相同物体框标注样本条件下,基于不同分类器的全监督和弱监督方法对实验数据1的分类结果,其中图11(a)图11(c)分别为采用CV-CNN、Wishart分类器和SVM的全监督方法对实验数据1的分类结果,图11(d)图11(f)分别为相应的弱监督方法对该数据的分类结果。类似地,图12图13分别给出了各分类方法对实验数据2和数据3的分类结果。为了定量评估分类结果,表1表3分别给出了采用不同方法所得的3幅实验图像各类别的分类精度,总体精度和Kappa系数[32]的值,其值越大,通常表明相应的分类结果越好。

      表 1  实验数据1的分类精度(%)、总体精度(%)和Kappa系数

      Table 1.  Classification accuracy (%), overall accuracy (%) and Kappa coefficient for experimental data 1

      方法蚕豆豌豆树林苜蓿小麦1甜菜土豆裸地草地
      CV-CNN全监督56.4389.0299.2120.3797.1280.6349.86100.0030.96
      CV-CNN弱监督56.1498.3585.1892.7288.2389.0070.87100.0085.56
      Wishart全监督56.5181.1988.1539.8854.7435.4967.110.680.11
      Wishart弱监督61.6380.5281.4685.9073.7191.2163.8499.7162.02
      SVM全监督85.4374.3771.8067.5268.3752.5978.2121.050
      SVM弱监督81.7773.2068.4458.2661.4255.4575.9927.180
      方法油菜籽大麦小麦2小麦3水域建筑区总体精度Kappa系数
      CV-CNN全监督48.3595.7494.3691.2990.4196.2276.870.7473
      CV-CNN弱监督48.2193.6695.6989.8181.6999.3784.580.8323
      Wishart全监督19.4897.4876.3253.1680.5191.8158.020.5440
      Wishart弱监督44.4787.0267.3668.5837.4790.1369.380.6674
      SVM全监督31.4229.4739.9075.9777.5167.7557.090.5352
      SVM弱监督36.5134.7639.5170.2476.7270.2756.580.5291

      表 3  实验数据3的分类精度(%)、总体精度(%)和Kappa系数

      Table 3.  Classification accuracy (%), overall accuracy (%) and Kappa coefficient for experimental data 3

      方法水域植被城区A城区B城区C总体精度Kappa系数
      CV-CNN全监督99.3782.377.5588.8991.5774.560.6466
      CV-CNN弱监督99.4391.9881.8480.0982.8491.050.8731
      Wishart全监督95.5863.3423.1433.0532.0345.760.3219
      Wishart弱监督86.6861.3251.5224.9931.7745.920.3239
      SVM全监督85.5326.7156.1323.4438.9954.340.3802
      SVM弱监督88.5127.7156.5527.4435.8654.870.3940

      图  11  实验数据1的全监督和弱监督分类结果

      Figure 11.  Classification results of experimental data 1 by fully-supervised and proposed weakly-supervised methods

      图  12  实验数据2的全监督和弱监督分类结果

      Figure 12.  Classification results of experimental data 2 by fully-supervised and proposed weakly-supervised methods

      图  13  实验数据3的全监督和弱监督分类结果

      Figure 13.  Classification results of experimental data 3 by fully-supervised and proposed weakly-supervised methods

      图11图13表1表3可见,本文提出的极化SAR图像弱监督分类方法与所用分类器的性能密切相关。在相同的分类方法框架下,采用CV-CNN所得分类结果明显优于采用Wishart分类器和SVM的方法所得分类结果,总体分类精度和Kappa系数的值均明显增大。这是由于CV-CNN本身具有更优的分类性能,可以更好地精选训练样本,并更优地对极化SAR图像数据分类。值得注意的是,当分类器性能不佳,将使得样本精选不可靠时,采用本文的弱监督方法所得结果甚至可能不及直接采用物体框标注样本的全监督分类方法所得结果,例如对于数据2,采用Wishart分类器的弱监督分类方法的总体分类精度仅为34.54%,小于相应全监督方法所得的36.36%。对于该数据,采用SVM也有类似结果。

      详细分析采用CV-CNN的方法所得结果可见,对于实验数据1的一些类别,直接应用物体框标注样本的全监督方法出现了比较明显错分,如苜蓿类和草地类的分类精度仅为20.37%和30.96%,分类的总体精度和Kappa系数分别仅为76.87%和0.7473。相比之下,采用本文精选样本的弱监督分类方法所得结果得到了较明显的改善,如苜蓿类和草地类的分类精度分别提高为92.72%和85.56%。整体分类结果与真值图更为接近,总体精度和Kappa系数值分别提升为84.58%和0.8323。此外,从图12图13表2表3中可以看到,对实验数据2和数据3的分类也有类似的结果。例如,对于实验数据2,全监督方法对植被和水域的分类精度较高,均超过90%,但对农田尤其是建筑区的分类结果较差,建筑区的分类精度仅为64.91%。相比之下,本文弱监督方法对植被和水域的分类精度与全监督分类方法所得结果相当,但对农田的分类精度由82.42%提升到93.34%,对建筑区的分类精度由64.91%提升到75.88%,均提升10%左右。整体而言,分类的总体精度约提升了8%,Kappa系数提高超过0.1。对于实验数据3,全监督方法对水域、植被和城区B和城区C的分类结果较好,但不能有效区分城区A和城区C,将大部分城区A像素错分为城区C像素。城区A的分类精度仅为7.55%,而总体分类精度和Kappa系数分别仅为74.56%和0.6466。相比之下,本文弱监督方法能够有效地区分不同类别,所得分类结果与真值图较为接近,所得各类别的分类精度均超过80%,总体精度达到了91.05%, Kappa系数为0.8731,明显高于全监督方法所得的结果。上述实验结果表明,物体框标注样本中的异质成分严重影响了全监督分类方法的性能,而本文弱监督分类方法通过样本精选有效地减小了异质成分的不良影响,能够获得明显更优的分类结果。

      表 2  实验数据2的分类精度(%)、总体精度(%)和Kappa系数

      Table 2.  Classification accuracy (%), overall accuracy (%) and Kappa coefficient for experimental data 2

      方法农田植被水域建筑区总体精度Kappa系数
      CV-CNN全监督82.4290.4198.7964.9182.140.7458
      CV-CNN弱监督93.3491.3898.7675.8890.020.8537
      Wishart全监督99.7655.950.0513.0736.360.1515
      Wishart弱监督99.7634.090.0120.2234.540.1272
      SVM全监督84.3359.4271.1852.2273.520.6073
      SVM弱监督88.0752.0593.6638.7970.400.5797
    • 针对物体框标注样本包含异质成分而影响监督分类方法性能的问题,本文提出了一种基于CV-CNN样本精选的极化SAR图像弱监督分类方法。首先基于CV-CNN迭代分类策略剔除原始物体框标注样本中的异质成分,并同时训练出可用于分类的CV-CNN,然后所得CV-CNN完成极化SAR图像分类。通过3幅实测极化SAR图像进行实验,结果表明,本文方法能够有效剔除样本中的异质成分,所得结果明显优于采用原始样本训练的CV-CNN所得结果。此外,在样本精选中采用CV-CNN方法性能明显优于采用经典的Wishart分类器和SVM。后续工作可考虑进一步优化CV-CNN或采用性能更优的其他分类器来代替CV-CNN。

参考文献 (32)

目录

    /

    返回文章
    返回