沟通咨询
提交成功

瑞莱智慧 4 篇论文入选国际顶会 NeurIPS 2022

2022.12.01
公司动态

11月28日,第36届神经信息处理系统大会(NeurIPS 2022)正式举行。本届会议以线下线上结合形式进行,为期两周。瑞莱智慧 RealAI 团队再获佳绩,4 篇研究成果被 NeurIPS 2022 录用,主要聚焦人工智能对抗攻防等前沿领域,并关注与自动驾驶等应用场景的结合。

 

 

NeurIPS 全称为 Neural Information Processing Systems,是人工智能领域最负盛名的顶级国际学术会议之一,与 ICML、ICLR 并列为全球机器学习三大顶会,其收录论文代表了相关研究的最高水平,也是未来技术发展的重要风向标。

 

RealAI团队始终坚持源头创新和底层研究,致力于第三代人工智能的研究和推广应用,深耕贝叶斯深度学习、可解释机器学习、AI安全对抗攻防、隐私保护机器学习等领域。今年以来,团队研究成果已先后被 ICLR、ECCV、ICML、USENIX Security、ESORICS 等会议及Pattern Recognition Letters期刊收录。

 

RealAI 团队 NeurIPS 2022 录用论文简要介绍如下:

 

01

《ViewFool: Evaluating the Robustness of Visual Recognition to Adversarial Viewpoints》

 

题目:《ViewFool:通过对抗视角评估视觉识别模型鲁棒性》

作者:Yinpeng Dong, Shouwei Ruan, Hang Su, Caixin Kang, Xingxing Wei, Jun Zhu

概述:近年来的研究表明,视觉识别模型对分布偏移缺乏鲁棒性。然而,目前的工作主要考虑模型对二维图像变换的鲁棒性,对三维世界的视角变化研究较少。一般来说,视角变化在各种现实应用(如自动驾驶)中普遍存在,因此评估视角鲁棒性非常必要。本文提出一种名为ViewFool的新方法,以发现误导视觉识别模型的对抗视角。通过将现实世界的物体编码为神经辐射场(NeRF),ViewFool在熵正则化项下描述了不同对抗视角的分布,这有助于处理真实相机姿态的波动,并减轻真实物体与其神经表示之间的现实差距。实验证明,常用的图像分类器极易受到生成的对抗视角的影响,且具有较高的跨模型迁移性。基于ViewFool,本文构建了视角OOD数据集ImageNet-V,用于对图像分类器的视角鲁棒性进行基准测试。实验结果表明,40余种具有不同架构、目标函数和数据增强的分类器在ImageNet-V上的性能出现显著下降。

链接:https://openreview.net/pdf?id=X0m9q0IcsmX

 

 

02

《Pre-trained Adversarial Perturbations》

 

题目:《预训练对抗扰动》

作者:Yuanhao Ban, Yinpeng Dong

概述:自监督预训练由于经过微调后在众多下游任务上的优异表现,近年来受到越来越多的关注。然而,众所周知,深度学习模型缺乏对抗样本的鲁棒性,尽管研究较少,但也会引发预训练模型的安全问题。在本文中,通过引入预训练对抗扰动,我们深入研究了预训练模型的鲁棒性。这是为预训练模型精心设计的通用扰动,以在不知道下游任务的情况下攻击经过微调的模型时保持有效性。为此,我们提出了一种低层次提升攻击 (L4A) 方法,通过提升预训练模型的低层次神经元激活来生成有效的预训练对抗扰动。L4A 配备了更好的噪声增强策略,可以有效地生成更加可迁移的对抗扰动,用于攻击微调后的模型。在典型的预训练视觉模型和 10 个下游任务上的大量实验表明,与最先进的方法相比,该方法大大提高了攻击成功率。

链接:https://openreview.net/pdf?id=ZLcwSgV-WKH

 

 

03

《Isometric 3D Adversarial Examples in the Physical World》

 

题目:《物理世界中的等距3D对抗样本》

作者:Yibo Miao, Yinpeng Dong, Jun Zhu, Xiao-Shan Gao

概述:3D 深度学习模型被证明与 2D 模型一样容易受到对抗样本的攻击。然而,现有的攻击方法在物理世界中仍存在隐蔽性差、性能下降严重的问题。虽然三维数据是高度结构化的,在欧氏空间中很难用简单的度量来限制扰动。本文提出一种新的ε-isometric (ε-ISO) 攻击,通过考虑 3D 对象的几何性质和物理变换的不变性,在物理世界中生成自然和鲁棒的 3D 对抗样本。对于自然性,通过采用高斯曲率作为理论分析保证的替代度量,将对抗样本约束为与原始样本ε-等距。对于物理变换的不变性,本文提出一种最大化变换 (MaxOT) 方法,主动搜索最有害的变换,而不是随机的变换,使生成的对抗样本在物理世界中更鲁棒。在典型的点云识别模型上的实验结果表明,与当前主流的攻击方法相比,该方法能够显著提高攻击成功率和生成的三维对抗样本的自然度。

链接:https://arxiv.org/pdf/2210.15291.pdf

 

 

04

《Confidence-based Reliable Learning under Dual Noises》

 

题目:《双重噪声下基于置信度的可靠学习》

作者:Peng Cui, Yang Yue, Zhijie Deng, Jun Zhu

概述:尽管深度神经网络 (DNNs) 已经在各种计算机视觉任务中取得了显著成功,但是对于模型优化通常需要大量良好标记的图像。然而,在现实世界中收集的数据不可避免地会受到各种噪声的影响,这样的数据往往会严重损害模型的性能。为了在数据噪声下可靠地训练 DNNs,人们做了各种尝试,但他们一般只考虑标签中存在噪声或图像中存在噪声的一种情形。我们在这项工作中研究了如何在图像、标签的联合噪声下的训练一个可靠的神经网络,并提供了一个统一的学习框架。具体而言,我们提出了基于置信度的样本过滤器来逐步检测噪声数据。接着,设计了基于提出的神经网络不确定性的学习机制,即惩罚检测到的噪声数据的模型不确定性(model uncertainty),通过这种训练方式使得神经网络不会过拟合到噪声数据而损害模型性能。一系列实验表明,我们提出的方法在各种具有挑战性的噪声数据集上表现良好,所提出的方法在图像分类性能上优于以前的基线模型。

链接:https://openreview.net/pdf?id=7fGIR2oIHTl

 

截至目前,ReaAI 团队成员已在 ICML、NeurIPS、ICLR、CVPR 等国际顶级会议上发表论文数百篇,并多次在各类国际测评和竞赛中斩获冠军。同时,RealAI 参与近 30 项国际、国家及行业标准的制定工作,累计获得各项知识产权近 500 项,其中授权发明专利 80 余项。接下来,RealAI 还将潜心攻关底层核心技术,以安全、可信、可靠和可扩展的第三代人工智能,助推人工智能产业高质量发展。