】 【打 印】 
【 第1页 第2页 】 
如果AI作恶一定是人在作恶
http://www.CRNTT.com   2018-11-12 11:52:38


  中评社北京11月12日电/一群装有炸药的无人机飞向人群,开始杀戮;一架无人机拦下一个行人,无人机上携带的手机里传出威胁指令,胁迫路人把身上的钱包放到无人机上挂着的袋子里……虽然这是拍摄的假想视频,但通过AI作恶已经不是科幻小说的情节。

  “AI作恶,是世界末日还是杞人忧天?”成为今年中国计算机大会(CNCC2018)中的一个讨论议题,也是中国计算机学会青年计算机科技论坛 (CCF YOCSEF)的一个活动。这个论坛于近日在杭州举行。

  主持人、哈尔滨工业大学长聘教授邬向前提前搜集了一些AI有可能“作恶”的迹象:谷歌、亚马逊、微软分别与美国军方、警方和移民局合作,研究人工智能在军事、警用和移民方面的用途;韩国科学技术院也与军方合作设立实验室,研究人工智能武器。“这些研究不仅严重侵犯了人权、自由和隐私,还对人类的安全产生了威胁,是对人类作恶,从而遭到人工智能研究人员的强烈抵制。”他认为,这也一定程度印证了霍金、马斯克和比尔·盖茨等提出的人工智能威胁论,即人工智能会危害并最终毁灭人类。

  在此之前,包括南京大学周志华教授在内的全球20多个国家、50多名高校顶尖AI学者集体签名抵制韩国科学技术研究院(KAIST)研发出基于AI的导弹、潜艇和四轴飞行器。

  其实,任何技术都是一把双刃剑。那么AI作恶是世界末日还是杞人忧天?为了避免人工智能作恶,是否应该停止相关技术的研究?从立法角度如何看待和防止AI作恶?

  360集团技术总裁、首席安全官谭晓生认为人性决定了AI的善与恶。AI的善与恶,本质上依然是发明和发展AI的人的善与恶。事情总有两面,当我们享受AI带给我们的便捷、便利的时候,也要承担AI所带来的风险:AI的算法可能存在缺陷、AI的代码实现可能会存在缺陷、AI所承载的硬件计算载体可能存在缺陷,更不要说AI已经被网络黑产和军方所采用,如同若干次技术革命时所面临的挑战一样。 


【 第1页 第2页 】 


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻: