• Solving Inverse Problems With Deep_Neural Networks – Robustness Included_


    Solving Inverse Problems With Deep Neural Networks - Robustness Included

    • 作者:Martin Genzel, Jan Macdonald, and Maximilian M¨arz
    • 期刊:preprint arXiv
    • 时间:2020
    • 代码链接:代码
    • 论文链接:论文

    1 动机与研究内容

    • 最近工作发现深度神经网络对于图像重构的不稳定(instabilities),以及分类中的对抗攻击,在输入域发生微小改变时就会造成输出非常大的改变。
    • 本篇论文对深度神经网络解决欠定(underdetermined)的逆问题的鲁棒性(robustness)进行了研究。研究内容包括用Guassian measurement的压感(compressed sening)以及通过Founier and Radon measurement的图像恢复,
    • 实验结果表示标准的端到端(end-to-end)的网络结构不仅对噪音有弹性,而且对对抗扰动也有弹性(resilient)。

    2 问题背景

    • 通过间接的方法实现信号重构(signal reconstruction)在各种应用中具有重要作用,这样的任务呗称作逆问题

    image.png(1)

    • 数据的获取通常costly,所以undetermined regime( m ≪ N m \ll N mN)受到了广泛的研究,这样的重构问题叫做ill-posed inverse problem
    • compressed sensing已经证明解决重构问题有着准确性以及鲁棒性的优点,该方法有一个映射Rec R m → R N \mathbb{R}^{m} \rightarrow \mathbb{R}^{N} RmRN,使得(1)满足一个错误边界:

    ∥ x 0 − Rec ⁡ ( y ) ∥ 2 ≤ C ⋅ η \left\|\boldsymbol{x}_{0}-\operatorname{Rec}(\boldsymbol{y})\right\|_{2} \leq C \cdot \eta x0Rec(y)2Cη(2)
    但是在real world,受到计算cost、人工调参、以及测量数据与真实数据的mismatch

    • 现在神经网络的方法来实现重构,利用有监督的样本训练实现重构,需要大量样本训练。由于不能满足(2)的理论保证,其准确性和抗测量噪声的鲁棒性的经验验证是至关重要的
    • 研究robust against noise具有重要意义。

    3 本文方法

    3.1 Neural Network Architectures

    UNet: R m → R N , y ↦ [ U ∘ A † ] ( y ) \mathbb{R}^{m} \rightarrow \mathbb{R}^{N}, \boldsymbol{y} \mapsto\left[\mathcal{U} \circ \mathcal{A}^{\dagger}\right](\boldsymbol{y}) RmRN,y[UA](y)
    image.png

    •  TiraFL:  R m → R N , y ↦ [ T ∘ L ] ( y ) \text { TiraFL: } \mathbb{R}^{m} \rightarrow \mathbb{R}^{N}, \boldsymbol{y} \mapsto[\mathcal{T} \circ \mathcal{L}](\boldsymbol{y})  TiraFL: RmRN,y[TL](y)
    •  ItNet:  R m → R N , y ↦ [ ( ◯ k = 1 K [ D C λ k , y , A ∘ U ] ) ∘ A † ] ( y ) \text { ItNet: } \mathbb{R}^{m} \rightarrow \mathbb{R}^{N}, \boldsymbol{y} \mapsto\left[\left(\bigcirc_{k=1}^{K}\left[\mathcal{D} \mathcal{C}_{\lambda_{k}, \boldsymbol{y}, \mathcal{A}} \circ \mathcal{U}\right]\right) \circ \mathcal{A}^{\dagger}\right](\boldsymbol{y})  ItNet: RmRN,y[(k=1K[DCλk,y,AU])A](y)

    其中, D C λ k , y , A : R N → R N , x ↦ x − λ k ⋅ A ∗ ( A x − y ) \mathcal{D} \mathcal{C}_{\lambda_{k}, \boldsymbol{y}, \mathcal{A}}: \mathbb{R}^{N} \rightarrow \mathbb{R}^{N}, \boldsymbol{x} \mapsto \boldsymbol{x}-\lambda_{k} \cdot \mathcal{A}^{*}(\mathcal{A} \boldsymbol{x}-\boldsymbol{y}) DCλk,y,A:RNRN,xxλkA(Axy)

    3.2 Total-Variation Minimization

    Total variation (TV) minimization是一种求解信号和图像重构任务的方法,解决(1)的以下列的形式:

    T V [ η ] : R m → R N y ↦ argmin ⁡ x ∈ R N ∥ ∇ x ∥ 1  s.t.  ∥ A x − y ∥ 2 ≤ η

    TV[η]:RmRNyargminxRNx1 s.t. Axy2η" role="presentation">TV[η]:RmRNyargminxRNx1 s.t. Axy2η
    TV[η]:RmyRNxRNargminx1 s.t. Axy2η

    3.3 Adversarial Noise

    e a d v = argmax ⁡ e ∈ R m ∥ Rec ⁡ ( y 0 + e ) − x 0 ∥ 2  s.t.  ∥ e ∥ 2 ≤ η \boldsymbol{e}_{\mathrm{adv}}=\underset{\boldsymbol{e} \in \mathbb{R}^{m}}{\operatorname{argmax}}\left\|\operatorname{Rec}\left(\boldsymbol{y}_{0}+\boldsymbol{e}\right)-\boldsymbol{x}_{0}\right\|_{2} \quad \text { s.t. } \quad\|\boldsymbol{e}\|_{2} \leq \eta eadv=eRmargmaxRec(y0+e)x02 s.t. e2η

    4 总结

    • 所有训练的NNs对噪音数据都具有明显的鲁棒性
    • 提高在迭代策略中数据的一致性(consistency)可能提高准确性和鲁棒性
    • 不应该仅仅使用无噪声的数据进行训练,论文中也揭示了仅仅简单的添加白高斯噪音也是一种有效策略(一种正则化的方法)
    • 核心:分类任务中对抗性例子的存在不会自然地影响到基于NN的反问题求解器。这样的重建方案不仅可以取代传统的方法,成为最先进的,但他们也显示了类似程度的鲁棒性

    5 相关工作

    • 现在许多现有文章是关注于分类和相关任务,少数文献研究明确解决了逆问题中的学习求解器的对抗鲁棒性
    • Huang等首次将对抗性攻击迁移到基于神经网络的重构方法,他们最初的发现局限于有限角度计算机断层摄影的特定问题,在特定问题中图像的某些部分被证明是不可能有robust recovery
  • 相关阅读:
    【AWS EC2】云端简单部署NodeJS应用
    yuv图像格式存储方式
    MySQL -- mysql connect
    《深入了解java虚拟机》高效并发读书笔记——Java内存模型,线程,线程安全 与锁优化
    详细教程。2022年滁州市明光市、来安县等各地区高新技术企业申报
    docker for windonws--Windows 10 家庭中文版安装kali并配置更新源
    基于TextRank算法生成文本摘要有代码+数据+可直接运行
    每天温习一个JS方法之Object.assign方法 第一天
    第十七章 开发Productions - ObjectScript Productions - 对业务服务、流程和操作进行编程
    小米汽车超级工厂智能物流
  • 原文地址:https://blog.csdn.net/weixin_45521594/article/details/127567635