人工智能再升级:AI存在被滥用的风险(2)

2018-02-27 17:09 来源:来源:与非网


  虽然这是报告中给出的假设性案例,但这个操作,一点都不令人意外。


  用人工智能搞破坏真不是科幻


  报告名为《恶意使用人工智能:预警、防止和缓解》,它由26位作者共同完成,其中不乏人工智能技术研究者。


  报告将滥用人工智能的威胁分为了物理安全、数字安全和政治安全三类。在物理安全方面,不法分子可以入侵网络系统,将无人机或者其他无人设备变成攻击的武器﹔在数字安全方面,人工智能可以被用来自动执行网络攻击,它也能合成人类的指纹或声纹骗过识别系统﹔在政治安全方面,人工智能可以用来进行监视、煽动和欺骗,引发公众恐慌和社会动荡。


  这些都不是危言耸听,甚至已有实例。


  2017年,浙江警方破获了一起利用人工智能犯罪、侵犯公民个人信息案。专业黑客用深度学习技术训练机器,让机器能够自主操作,批量识别验证码。“很短时间就能识别上千上万个验证码。”当时的办案民警介绍。


  北京邮电大学人机交互与认知工程实验室主任刘伟曾见识过一家人工智能公司的“声音合成”技术,A说的话完全可以套上B的声音,“一般人识别不出来”。刘伟说,这些技术一旦被别有用心的人利用,“世界可能就乱套了”。


  要打技术攻防战,也要制度来规范


  怎麽办?


  一方面是升级技术。当攻击方用上了导弹大炮,防御方就不能只用“小米加步枪”。中国社科院文化法制研究中心研究员刘明说,技术带来的问题,有时也可以用技术发展来解决。人工智能是一种工具,工具的发展也许不会从根本上改变行为的性质,但会改变行为的模式和行为后果的烈度。“如果意识到自己所在行业存在人工智能带来的威胁,自身加强防范就很重要。”


  刘伟也表示,如果有一种技术能将声音模仿得惟妙惟肖,就会有另一种技术来识别这声音来自李鬼还是李逵。“这可能是一场无止境的技术攻防战。”

财经屋声明:资讯来源于合作媒体及机构,属作者个人观点,仅供投资者参考,并不构成投资建议。投资者据此操作,风险自担。

您可能感兴趣的文章

点击排行