日期
- 12/22
- 2017
咨询
-
QQ扫一扫
-
Vision小助手
(CMVU)
腾讯安全团队:谷歌AI学习系统有安全漏洞
收藏
2017-12-22 10:14:36来源: 中国机器视觉网
12月16日,腾讯安全平台部Blade团队日前对外发布消息称,该团队在对谷歌人工智能学习系统TensorFlow进行代码审计时,发现该系统存在重大安全漏洞,利用该系统进行编辑的AI场景,有遭受恶意攻击的可能。
据腾讯安全平台部负责人杨勇介绍,TensorFlow是目前谷歌免费开放给AI设计者的编程平台,程序员可以在该平台上进行AI组件的设计工作。杨勇表示,当含有安全风险的代码被编辑进诸如面部识别或机器人学习的AI使用场景中,攻击者就可以利用该漏洞完全接管系统权限,窃取设计者的设计模型,侵犯使用者隐私,甚至对用户造成更大伤害。
杨勇说:“通俗地讲,如果设计人员在给机器人编程时恰好使用了含有该漏洞的组件,那么恶意攻击者就有可能利用漏洞控制该机器人,这是非常可怕的。目前我们在AI安全领域还只是迈出了一小步,未来期待更多的技术人员一起完善AI,让AI更安全……”
Blade团队表示,TensorFlow是目前应用最为广泛的机器学习框架之一,已被运用在诸多AI场景中,如语音识别、自然语言理解、计算机视觉、广告、无人驾驶等;其一旦被黑客控制,后果不堪设想。目前Blade团队已将漏洞的运用机理致函谷歌公司,而该漏洞需要谷歌安全团队对代码重新编辑。
对此,一些业内专家也表达了担忧。上海信息安全行业协会专委会副主任张威认为,当前从事人工智能开发的企业几乎无一例外地将算法和数据相融合,一些数据可能涉及企业和用户的核心秘密,一旦出现安全漏洞,风险较高。
张威建议,有关企业应尽快自查是否使用过该平台进行AI编程,同时行业内应加强联系沟通,消除安全隐患。