中评社北京6月9日电/据日本《朝日新闻》6月7日报导,日本防卫省6日首次制定并发布了关于人工智能(AI)武器研发的“AI适用指南”,以期在管理AI风险的同时推动应用AI技术。关于无人机等AI武器的开发,指南明确提出了“人类责任明确化”等要求。
日本防卫大臣中谷元在6日的记者会上强调:“根据指南内容,可以在降低AI应用风险的同时,最大限度从中受益。”
去年7月,防卫省制定了关于有效利用AI的基本方针,设定了包括“指挥控制”在内的七个重点领域,并明确指出“人类干预”的必要性。在此基础上,此次指南提出了在武器研发中涉及AI应用的思路与审查制度。
具体而言,研发对象被划分为“高风险”和“低风险”两类。例如,如果AI能够识别攻击目标并直接触发导弹发射,则被划为“高风险”一类;而如果即使AI能够识别目标,也仍由人类作出判断,则被视为“低风险”。
针对“高风险”项目,防卫省将从法律与政策角度审查其研发可行性。若无法遵守国际法或国内法,或者涉及人类无法干预的致命性自主武器系统,则不允许推进开发。此外,专家会议将进行技术性审查,从七个方面展开调查。
|