首个谷歌TensorFlow安全风险被腾讯找到:攻击成本

  腾讯发现首个Google TensorFlow安全风险:攻击成本低,令人困惑

  (原题:腾讯发现第一个Google TensorFlow安全风险:低攻击成本,混乱)量子寺的李根量子位覆盖公众号QbitAI发现第一个TensorFlow安全风险!利用这种风险,攻击者可以生成Tensorflow的恶意模型文件,攻击AI研究人员,窃取或篡改受害者自己的AI应用程序。目前,谷歌官员已经证实了这个漏洞,并表示TensorFlow官方网站将是最重要的软件创建安全公告页面,及时披露和修复安全漏洞,给予了TensorFlow广泛使用的AI。谷歌官方,感谢臭虫记者为邮件。本报记者来自中国腾讯安全平台安全预研团队。腾讯安全研究小组第一名TensorFlow安全风险人士告诉昆腾,TensorFlow漏洞的发现过程并非偶然。最近,在面对部门人工智能的同事之后,我决定尝试一下Tensorflow模型文件。后来在挖掘TensorFlow API文档和源代码时,发现确认了漏洞。腾讯团队认为,伤害风险非常大,一方面攻击代价低,普通攻击者可以攻击;另一方面,混乱和强大,大多数人工智能研究人员可能没有准备。在使用TensorFlow自有机制的同时,其最新版本的PC和移动终端也将受到影响。 AI模型被盗,这个损失是开发者的努力;而一旦被篡改,导致AI失控,其后果更是难以想象,但是没有发生损害事件的风险,不仅是因为它是零日漏洞,也是第一次向Google报告,漏洞应及时修复。值得注意的是虽然攻击还没有造成,但腾讯安全小组发现漏洞,不仅在最新版本的TensorFlow,TensorFlow老版本中也存在这样的风险,而且还有很长一段时间,你需要已经使用TensorFlow开发的开发者注意,腾讯安全团队证实了这个问题,所有的TensorFlow版本都有这个问题,由于AI框架被广泛使用,近一两年的时间内,由于第一个安全风险被报道,业界对此类安全问题并没有引起足够的重视,但TensorFlow可能是迄今为止使用最广泛的AI框架, Google,Ebay,Airbnb,Twitter,Uber和TensorFlow进行AI模型的培训和开发。在中国,小米,中兴,京东等公司也在使用TensorFlow的开源框架,在TensorFlow中,人工智能研究人员可以重复使用他人建立的模型进行人工智能培训,或直接提供人工智能服务,大大提高了开发效率。这些公共模型通常以文档的形式提供,通常被认为是无害的,但是这个漏洞被认为是AI开发者的“教训”,将来开发者在使用开源框架的时候可能会被要求“吃光” ,比如使用外部供应的TensorFlow模型要谨慎,比互联网和移动互联网时代更好,人工智能时代的风险攻击仍然可能会造成线上线下融合的影响,目前越来越多的物联网设备腾讯安全预研小组表示,在2015年成立之初,重点之一就是人工智能,移动和物联网等安全领域的前沿。但是TensorFlow的安全风险也是第一个被发现的,希望能引起更广泛的行业关注。 “如果这个漏洞被成功利用,那么这个AI模型可能会被窃取或者被恶意篡改,这可能会导致AI的失控,如果使用恶意模型文件,会导致大量的用户被攻击通过网络“。腾讯安全小组强调。依赖图书馆也潜藏风险腾讯直接在TensorFlow框架中寻找安全风险。量子位也在之前的报道中提到,TensorFlow,Caffe,Torch三个深度学习框架包括许多第三方软件包,其中也存在安全风险。初步研究显示,在三个框架中发现了15个漏洞,包括DoS拒绝服务攻击,逃避攻击等等。研究人员表示:“深度学习框架非常复杂,严重依赖于大量的开源软件包。”这些依赖性只是这些漏洞的根本原因。