腾讯披露新型AI攻击手法:操纵神经元构造后门,主流机器学习框架受影响

原标题:腾讯披露新型AI攻击手法:操纵神经元构造后门,主流机器学习框架受影响

搜狐科技讯

8月19日,第19届XCon安全焦点信息安全技术峰会于北京举行,腾讯朱雀实验室首度亮相公众视野。该实验室由腾讯安全平台部孵化,专注于实战攻击技术研究和AI安全技术研究,以攻促防,守护腾讯业务及用户安全。

会上,腾讯朱雀实验室高级安全研究员nEINEI分享了一项AI安全创新研究:模拟实战中的黑客攻击路径,通过对AI模型文件的逆向分析,跳过传统利用“样本投毒”的攻击环节,直接控制AI模型的神经元,为模型“植入后门”。甚至在保留正常功能的前提下,直接在AI模型文件中插入二进制攻击代码,将模型文件改造为攻击载体来执行恶意代码,在几乎无感的情况下,实现对神经网络的深层次攻击。

这也是国内首个利用AI模型文件直接产生后门效果的攻击研究。

腾讯安全平台部负责人杨勇表示,当前AI已融入各行各业,安全从业者面临着更复杂、更多变的网络环境。我们已经看到了网络攻击武器AI化的趋势,除了框架这样的AI基础设施,数据、模型、算法,任何一个环节都是攻防的前线。作为安全工作者,必须走在业务之前,做到技术的与时俱进。

针对新型攻击手法,腾讯朱雀实验室也对AI研究和从业人员提出了应对建议:从第三方渠道下载的模型,要保证渠道的安全性,避免直接加载不确定来源的模型文件。对模型文件的加载使用也要做到心中有数,通过“模型可信加载”,每次加载模型进行交叉对比、数据校验,进行充分的代码检测,可有效应对这种新型攻击手法。返回搜狐,查看更多

责任编辑:

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
推荐阅读