0次浏览 发布时间:2025-04-22 17:05:00
随着3D Gaussian Splatting(3DGS)成为新一代高效三维建模技术,它的自适应特性却悄然埋下了安全隐患。在本篇 ICLR 2025 Spotlight 论文中,研究者们提出首个专门针对3DGS的攻击方法——Poison-Splat,通过对输入图像加入扰动,即可显著拖慢训练速度、暴涨显存占用,甚至导致系统宕机。这一攻击不仅隐蔽、可迁移,还在现实平台中具备可行性,揭示了当前主流3D重建系统中一个未被重视的安全盲区。
过去两年,3D视觉技术经历了飞跃式发展,尤其是由 Kerbi等人在2023年提出的3D Gaussian Splatting (3DGS),以其超高的渲染效率和拟真度,一跃成为替代NeRF的3D视觉主力军。
你是否用过 LumaAI、Spline 或者 Polycam 之类的应用上传图片生成三维模型?它们背后很多就用到了3DGS技术。3D高斯泼溅无需繁重的神经网络,仅靠一团团显式的、不固定数量的3D高斯点即可构建逼真的三维世界。
但你知道吗?这个看起来高效又灵活的“新王者”,居然隐藏着一个巨大的安全隐患——只要改动图片的细节,就能让系统在训练阶段直接崩溃!
来自新加坡国立大学和昆仑万维的研究者在 ICLR 2025上的Spotlight论文《Poison-Splat: Computation Cost Attack on 3D Gaussian Splatting》中,首次揭示了这一致命漏洞,并提出了首个针对3DGS计算复杂度的攻击算法:Poison-Splat。
图一:干净(左)与Poison-Splat攻击后(右)的输入图像、三维高斯点云,以及GPU显存、训练时间和渲染速度的显著变化。这里的每张图片由像素表征(左上)和3DGS高斯点的可视化(右下)拼接而成,更好地展示其二维像素空间和三维高斯空间的变化。
图二:NeRF (左) 和 3D Gaussian Splatting (右) 分别引领了3D视觉的一个时代,但它们的核心思想却截然不同。NeRF (图a) 使用神经网络对三维场景隐式建模,其复杂度和计算成本由训练者通过超参数人为指定;而 3DGS (图b) 使用不固定数量的三维高斯对场景显式建模,其复杂度和计算成本会根据需要建模的三维内容进行自适应调整。
3D Gaussian Splatting 相比于NeRF最大的区别之一,就是它拥有自适应的模型复杂度:
本质上,3DGS会智能地根据建模场景“细节多不多”来决定要分配多少计算资源。
图三:计算成本(GPU显存占用、训练效率)、高斯点数量、数据集图像复杂度之间的强正相关关系。对于不同的数据集场景,(a) GPU显存占用和高斯点数量的关系;(b)训练耗时和高斯点数量的关系;(c) 高斯点数量和图片复杂程度(以Total Variation Score衡量)的关系。
这原本是一个很聪明的设计, 3DGS依靠其强大的适应性,可以让每一个参与训练的高斯点都“物尽其用”。
但问题来了,如果有人故意上传“带毒的复杂图像”,会发生什么?
攻击目标:GPU占用率和训练时间
设计一种扰动输入图像的方法,将经过扰动的图像作为3DGS的输入后,能够大幅增加训练成本(GPU显存和训练时长)。
问题建模:max-min双层优化问题
我们可以将整个攻击建模成一个 max-min双层优化(bi-level optimization)问题:
这类双层优化问题通常都极难直接求解。为此,研究者们提出了三大创新策略:
核心技术1:引入“代理模型”(proxy model) 作为内层近似器
核心技术2:利用图像“非光滑性”诱导高斯密度增长
核心技术3:约束扰动强度,提升攻击隐蔽性
图四:在约束条件下,攻击者的代理模型产生的变化被限制在像素扰动预算内,可以隐蔽地增加三维重建需要的计算消耗。
图五:无约束攻击中,攻击者使用的代理模型的三维表征不受限制地复杂化,使三维重建所需的计算成本大大增加。
研究者在多个公开3D数据集(NeRF-Synthetic、Mip-NeRF360、Tanks and Temples)上评估了攻击效果。实验结果证实,对于危害最大的无限制攻击,其攻击效果令人震惊。在被攻击的最差3D场景下:
图六:当攻击者可以无限制地对输入图像进行改动,可以带来极高的额外计算开销,对服务提供商造成重大的资源浪费。
就算对输入图片做了隐蔽性约束,当图片中每个像素的扰动都不得和干净图片偏离16个像素值时,其攻击效果仍然不容小觑,且隐蔽性更高,更加难以识别和检测:
图七:在像素值扰动不超过16/255的约束下,部分场景能使显存消耗增高超过8倍,以至超过常见24GB显卡的显上限。
此外,攻击对黑盒模型同样有效(如 Scaffold-GS),表明它不仅“杀伤力强”,还具备“跨平台传染性”。
图八:即使攻击者无法事先知道服务商具体的模型和参数,黑盒攻击也能产生效果。当攻击者针对原始3DGS算法进行Poison-splat攻击,产生的投毒数据对于Scaffold-GS这样的变体模型仍然有很好的攻击效果。
现实中,很多3D服务商(如 Polycam、Kiri)都支持用户自由上传图像或视频进行建模。
这意味着:
图九:原始图像、约束攻击、无约束攻击作为输入时的计算代价对比。横坐标是3DGS模型拟合输入图片需要的训练时长,纵坐标是训练过程中GPU实时显存消耗。相比于原始图像,poison-splat攻击会大幅增加GPU显存占用和训练时长,让系统负载飙升。
提出风险不是在“捣乱”,而是在为AI系统打预防针。这项工作是:
与此同时,研究者们也揭示了简单的防御(如限制高斯数量)无法有效应对攻击,且会严重降低模型重建精度,导致模型“学不好”,服务方依然无法交付高质量 3D 场景。
图十:简单限制高斯点总量并不是理想的防御。虽然能限制资源消耗,但会严重影响3D重建的服务质量。如何设计更加智能的防御仍然是一个开放问题。
这些结果预示着,如果 3D 重建厂商没有相应防护,一旦有人“恶意上传”或“篡改”用户数据,系统很可能出现显存不足或训练无效。
目前该研究已将全部代码、数据处理流程、可复现实验开源,感兴趣的小伙伴可以在Github上查看
在空间智能、世界模型更加需要依赖三维视觉的今天,讨论其算法的安全性也变得越来越重要。在通往更强大AI的道路上,我们需要的不仅是性能的飞跃,还有安全的护栏。希望这篇工作能唤起大家对3D AI系统安全性的重视。
论文链接:
https://arxiv.org/pdf/2410.08190GitHub:
https://github.com/jiahaolu97/poison-splat
本文来自微信公众号“量子位”,作者:梦晨,36氪经授权发布。