[图]五大道德原则:美军公布未来武器中使用AI标准

摘要:

根据美国国防部发布的最新新闻稿,美国军方制定了未来装备在机器人坦克、智能武器系统中人工智能的新道德标准。新闻稿中指出,美国国防部和业内领先的多名AI专家共同研究15个月之后,提出了涉及五个考虑因素的执导方针。

3.jpg

Photo: U.S. Navy/DVIDS

据悉这五大道德原则分别为“责任”、“公平”、“可追溯”、“可靠”和“可控”。虽然该委员会决议并不具拘束力,但知情官员指出,五角大厦即将重新制定的规格将“完全符合该规范”。

这五大道德原则分别为

1.责任(Responsible)

负责国防部人员将行使适当的判断力和谨慎水平,同时还要负责AI功能的开发,部署和使用。

2.公平(Equitable)

国防部将采取有步骤的措施,最大程度地减少人工智能功能中的意外偏见。

3.可追溯(Traceable)

国防部开发和部署的AI功能将会提供适用情境、开发流程和操作方法等等,并通过透明且可审核的方法对数据源、设计程序和文档进行查看

4.可靠(Reliable)

国防部对各项AI功能都具有明确定义的用途,并且这些功能的安全性,有效性和有效性将在其整个生命周期内经受测试和保证。

5.可控(Governable)

国防部将设计和工程AI功能,以实现其预期的功能,同时具有检测和避免意外后果的能力,以便于在遭遇突发状况的时候及时控制。

五角大厦透过声明稿表示,这些原则理论基础源于美国宪法,规范美军角色与定位的《美国法典》第10卷,国际战争法以及国际既有的条约与规范,未来这些通用性原则将适用于于 包括战斗与非战斗用途的AI,以维护美军在使用AI时的正当性与合法性。

美国国防部“联合人工智慧中心”(JAIC)主任夏纳翰翰中将表示,相较于苏联,中共发展军用AI引发包括违反人权,道德与国际规范等疑虑的事实,美国与西方盟国对于AI的 安全使用与人道考量全面且一致,JAIC未来也将召集美军所有与AI有关的领导阶层,研讨落实该原则的实际措施。

部分专家对于AI的军事化表达高度忧心,国际自动化武器规范委员会(iPRAW)成员,德国慕尼黑大学附属绍尔就表示,五角大厦以及DIB的做法虽然令人赞赏,而将武器自动化仍可能造成极大影响 ,当致命击杀链具自主判断能力时,恐造成危机甚至毁灭。

DIB在原则中,明确指出人类对AI必须掌握最终的控制权,并针对AI使用负起完全责任。 提升该领域军民合作的可能性。

访问:

阿里云2020年上云采购季开场 活动开出“降本增效1亿补贴”

热门评论

>>共有0条评论,显示0
更多评论
created by ceallan