马斯克、库兹韦尔等确认的23个原则,将使AI更安全和道德

2017-02-20 22:20 旅游 来源:思达派 查看原文

马斯克、库兹韦尔等确认的23个原则,将使AI更安全和道德

“生命未来研究所”(Future of Life Institute,FLI)概括了“阿西洛马 人工智能 原则”,列出了23条准则,使未来人工智能的研究人员、科学家和立法者遵循,确保安全、伦理和有益。

马斯克、库兹韦尔等确认的23个原则,将使AI更安全和道德

文:Michael Irving 编译:多啦A亮

人工智能将严重地破坏世界?人工智能对人类是否有益?我们该摧毁它吗?这听起来像拍科幻电影,但是随着人工智能的快速发展,数百名人工智能和机器人领域的专家们联合编制了 “阿西洛马人工智能原则” ,列出了23条准则,提出重点和注意事项来指导AI发展,共同保障人类未来伦理、利益和安全。

这23条准则由“生命未来研究所”牵头制定出,旨在确保人类在新技术出现时能顺利规避其潜在的风险。 其突出核心成员有Stephen Hawking和Elon Musk。这个组织专注于由新技术和问题构成的潜在威胁,如人工智能、生物技术、核武器和气候变化等。

2017年1月,在美国加利福尼亚州阿西洛马举行的Beneficial AI会议上,该组织收集了来自大学和公司的人工智能研究人员,讨论人工智能的未来及其应如何监管。在会议召开前,该组织让参会者做了一份调查:在未来几年,人工智能需要怎样发展和监管,并用这些参会者的反馈制定出一个前期的目标点。修改后的版本在会上做了讨论研究,只有当90%的研究人员同意最终列出一份原则列表。

马斯克、库兹韦尔等确认的23个原则,将使AI更安全和道德

「部分签名的专家」

Demis Hassabis ,DeepMind创始人兼 CEO

Ilya Sutskever ,OpenAI研究总监、联合创始人

Yann LeCun, Facebook AI 研究室总监,纽约大学教授

Yoshua Bengio ,蒙特利尔大学、蒙特利尔学习算法研究所所长

Stuart Russell,加利福尼亚大学伯克利分校计算机科学教授,智能系统中心主任

Peter Norvig , 谷歌 研究总监

Ray Kurzweil ,谷歌研究总监;发明家、作家和未来学家,著有《奇点临近》

Jeff Dean, 谷歌Google Brain项目负责人,谷歌高级研究员,AAAI成员

Tom Gruber, 苹果 公司;Siri的共同创始人,Siri 项目CTO和设计副总裁

Nils J. Nilsson,AAAI前任主席,斯坦福大学Emeritus Kumagai工程教授

Francesca Rossi, IBM;Padova,计算机科学教授,IJCAI主席、AAAI委员会、 AI与伦理问题影响委员会联席主席,ACM成员

总共有808名AI /机器人研究人员签名;

以及

Stephen Hawking ,剑桥大学

Elon Musk,特斯拉CEO

Jaan Tallinn ,Skype 联合创始人

Sam Altman ,Y Combinator 总裁

Gill Pratt ,丰田研究院CEO

……

马斯克、库兹韦尔等确认的23个原则,将使AI更安全和道德

阿西洛马人工智能原则是著名的阿西莫夫的机器人三大法则的扩展版本。 阿西洛马人工智能原则主要分为三大类:科研问题、伦理价值和长期问题。

科研问题主要涵盖了科学家和研究人员对人工智能系统开放的职责,以及在计算机科学、经济学、法律、伦理学和社会研究中可能产生的“棘手问题”。在这里要提出重点的是人工智能不能单纯了为了利益而创造,而应该为了在确保人类不被替代的情况下通过自动化实现人类繁荣。保持一个开放、合作的人工智能研究的文化也是一个优先考虑的事情,以确保研究人员和政策制定者在彼此交换信息的同时,不会以危害人类为手段与竞争对手参与竞争。

在讨论环节最有意思和争议的问题应该是“AI应该具有怎样的价值观,应该具有何等法律和伦理地位?”一个拥有机器人的世界已经足够复杂,让机器人拥有权力似乎离我们很远,但是这些争议已经在欧盟开始了。我们越早考虑这些问题,将来就会越容易过渡。

而问题是人工智能该赋予怎样的权力? 科学家认为人工智能应符合一般的“人的价值”之类的尊严、权利、自由和文化等多样性。这意味着将人工智能应用于个人数据不应侵犯任何人的隐私、自由或安全。 如果有什么问题,人们需要确定产生这些问题的原因和方式,设计师和制定者在使用或误用系统中要承担在一定的道德责任。

这些点都已经在实践中被考虑到了:科学家在谷歌DeepMind项目中讨论如何实现用一个“大红色按钮”去干预一个已经开始按行动路径执行任务的机器人,并防止它抗干扰。

尤其让人害怕的是要注意“致命的武器军备竞赛是应该被禁止的”。“生命未来研究所”在过去一直强调这一点,2015年向联合国提交了一封公开信,请求联合国禁止军用人工智能的发展。

科学家们列出了清单,着眼于潜在的长期问题,包括未来发展这一重要技术平衡资源分配,但要规划和减轻人工智能系统可能会面对的风险,特别是灾难性的或存在的风险。

为此,安全控制措施应适用于AI,可以改善自身技术,阻止剧本里世界末日的发生,而在一般情况下, “超智只应服务于广泛共享的伦理理想的发展,并为全人类利益而不是一个国家或组织的利益。”

「Asilomar AI Principles 阿西洛马人工智能原则」

科研问题

1)研究目的:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。

2)研究经费:投资人工智能应该有部份经费用于研究如何确保有益地使用人工智能,包括计算机科学、经济学、法律、伦理以及社会研究中的棘手问题,比如:

? 如何使未来的人工智能系统高度健全(“鲁棒性”),让系统按我们的要求运行,而不会发生故障或遭黑客入侵?

?如何通过自动化提升我们的繁荣程度,同时维持人类的资源和意志?

?如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展速度,并且能够控制人工智能带来的风险?

?人工智能应该归属于什么样的价值体系?它该具有何种法律和伦理地位?

3)科学与政策的联系:在人工智能研究者和政策制定者之间应该有建设性的、有益的交流。

4) 科研文化:在人工智能研究者和开发者中应该培养一种合作、信任与透明的人文文化。

5)避免竞争:人工智能系统开发团队之间应该积 极 合作,以避免安全标准上的有机可乘。

伦理和价值

6) 安全性:人工智能系统在它们整个运行过程中应该是安全和可靠的,而且其可应用性的和可行性应当接受验证。

7) 故障透明性:如果一个人工智能系统造成了损害,那么造成损害的原因要能被确定。

8)司法透明性:任何自动系统参与的司法判决都应提供令人满意的司法解释以被相关领域的专家接受。

9)责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。

10)价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。

11)人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致。

12)个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据。

13)自由和隐私:人工智能在个人数据上的应用不能充许无理由地剥夺人们真实的或人们能感受到的自由。

14)分享利益:人工智能科技应该惠及和服务尽可能多的人。

15) 共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类。

16)人类控制:人类应该来选择如何和决定是否让人工智能系统去完成人类选择的目标。

17)非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆。

18)人工智能军备竞赛:致命的自动化武器的装备竞赛应该被避免。

更长期的问题

19)能力警惕:我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识。

20)重要性:高级人工智能能够代表地球生命历史的一个深刻变化,人类应该有相应的关切和资源来进行计划和管理。

21)风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。

22)递归的自我提升:被设计成可以迅速提升质量和数量的方式进行递归自我升级或自我复制人工智能系统,必须受制于严格的安全和控制标准。

23)公共利益:超级智能的开发是为了服务广泛认可的伦理观念,并且是为了全人类的利益而不是一个国家和组织的利益。

为您推荐: