360安全团队再登USENIX Security 展示研究成果

?

img_pic_1564634319_0.png

最近,360智能安全团队应邀参加了USENIX Security 2019,这是信息安全领域的顶级国际会议。它将在8月15日至17日举行的会议上分享主题《Seeing is Not Believing: Camouflage Attacks on Image Scaling Algorithms》,引入人工智能视觉系统的潜在安全风险。和防御方法。 USENIX Security是信息安全领域(包括S& P,CCS,NDSS)的“四大”顶级学术会议之一,始于20世纪90年代初。与此同时,USENIX Security被中国计算机学会(CCF)列为“网络和信息安全”A级会议(共有ABC III级,A级最佳);它被清华大学列为计算机科学与技术系的重要国际学者。会议A会议。世界顶级学者的技术委员会只能选择最具创新性和重要性的安全研究价值。

继2017年360冰刀实验室首次公布中国公司在USENIX Security下的独立研究成果后,这次具有20多年历史的顶级安全会议再次迎来了360项研究成果,标志着持续发展360在学术安全研究领域。国际一流水平。

这次,360 Smart Security团队发现了在图像处理过程中隐藏的安全风险图像尺寸转换攻击。攻击者可以构建攻击图像,使得输入图像在维度变化后经历显着的内容语义变化,导致人与机器之间的认知差异,从而实现欺诈和逃避检测的攻击效果。与深度学习模型的对抗样本不同,攻击方法不限于特定模型并且具有更大的影响范围。

为了验证攻击方法的有效性,360智能安全团队成功地基于流行的深度帧(如Caffe,Tensorflow和Torch)对多个AI视觉应用程序实施了欺骗攻击。此外,360 Smart Security团队还检查了此风险对业务愿景服务的影响。实验结果表明,即使黑盒系统仍然可以通过测试策略获取被攻击对象的算法和相关参数,并启动图像维度转换攻击。经过测试,国内主流云AI服务和Microsoft Azure及其他国际制造商提供的机器视觉服务也存在类似的风险。目前,360智能安全团队已与相关供应商沟通并修复了评估结果和维修解决方案。

360智能安全团队是专注于人工智能安全风险研究的顶级团队。它是第一个在全球范围内发现许多安全问题的人,涉及用于安全,应用程序安全,模型安全和数据安全的AI系统。

目前,它在多个深度学习框架及其相关组件中发现了60多个漏洞,可能导致任意代码执行,拒绝服务攻击,控制流劫持,信息泄露和其他危害。黑客可以利用这些漏洞攻击AI系统或应用程序,窃取用户隐私或AI供应商的知识产权(例如用户数据,超参数,模型参数等)。目前,360正与Cambrian和华为等厂商合作,在AI系统中部署相应的安全解决方案。

此外,360智能安全团队还参与了一系列人工智能安全标准的制定,以开放和协作的态度推动了人工智能安全的发展。