】 【打 印】 
【 第1页 第2页 】 
如果AI作恶一定是人在作恶
http://www.CRNTT.com   2018-11-12 11:52:38


 

  他强调“物竞天择,适者生存”:“我们应该拥抱变化,积极适应AI的快速发展。”

  北京大学法学院教授、互联网法律中心主任张平教授从法律角度分享了自己对AI作恶的认识。她认为“AI作恶的实质是人类在作恶”。张平教授在发言中谈道,AI的本质是人类的工具,而法律对人类利用工具作恶的规制主要是从技术、产品以及人机混合体(新生命)三个方面进行。

  她分析,从现有法律看,AI作恶可分为“大恶”与“小恶”。“大恶”是达到了人类无法控制的顶级作恶,例如“反人类罪”,按照现行人类法律对于反人类行为当必除之;“小恶”的基本特征是将AI作为人类的工具用来作恶,包括大数据的滥用等。

  张平提出,要想制止AI作恶,应当从人类开始。不过,她认为真正令人恐惧的是作恶的“人机混合体”。一些具有强大功能的“人机混合体”将更多享受地球以及宇宙的资源,而其他自然人将处于弱势,从而成为“被作恶对象”。

  那么在AI研发的规制上只可能从善良的角度尽可能做道德约束,但绝无法阻止人类中的“恶人”行为。大恶只能由人类命运决定,就像核武器一样,全人类恶之。张平教授还给出了AI应当遵循的基本原则,即有益目的原则、安全性原则、价值归属原则和非颠覆原则等。

  参会者在讨论中阐述了各自的观点。现在有很多利用AI作恶的现象,比如人工智能武器、大数据滥用、隐私侵犯等;AI本身是一种工具,有脆弱性,即容易被不法分子利用;无论是多先进的技术,总会首先应用于作战,这是不可避免的。

  在防止AI作恶方面,专家学者们也给出了自己的意见。不过,大家认为防止AI作恶的难度很大,因为AI的发展太过于迅速,进化很快,并且其有分散性和低门槛的特点,很难防止。

  因此,应该设立伦理委员会,对AI的研究进行审查,可以考虑设立AI的研究禁区,从危害性和应用领域对AI进行分级,防止别有用心的人控制AI。

  (来源:中青在线)


 【 第1页 第2页 】


扫描二维码访问中评网移动版 】 【打 印扫描二维码访问中评社微信  

 相关新闻: