为人工智能发展定规立矩?#20445;?#22823;家手笔

                        邱仁宗

                        2016年11月22日07:42  来源人民网人民日报
                         

                        最近人机大战引起世人关注一些人对人工智能可能会对人类造成危害甚至威胁人类生存表示担心对此英国科学家霍金和美国微软公司创始人盖茨等名人也提出?#21496;?#21578;我对人工智能发展持乐观态度但前提是人类要制定和遵循设计与制造机器人的相应规则

                        人类制造的智能机器人威胁到人类自身的生存这被称为?#38469;?#22855;点问题?#38469;?#22855;点是指拥有人类智能的机器人?#27426;?#25913;进自己并且制造或繁殖越来越聪明越来越强大的机器人最终达到人类不可预测无法控?#39057;?#22320;?#20581;?#22914;果制造智能机器人的?#38469;?#36234;过这一奇点局面将无法收拾会伤害人类甚至使人类面临灭亡危险但人类可以防患于未然?#20048;?#26426;器人制造?#38469;?#36798;到或超越这一?#38469;?#22855;点完全是有可能的关键是我们有无能力使设计制造机器人的科学家和制造商遵守人工智能发展的规则

                        1942年美国科普作家阿西莫夫提出了机器人三原则?#20445;?#19968;是机器人不能伤害人类?#27426;?#26159;机器人要听从人类指挥除非违反第一条三是机器人要保护自己除非违反第一条或第二条这些原则是好的?#27426;?#29616;在许多科学家提出的已不仅是机器人可能伤害人的问题而是关系到人类生死存亡的问题机器人三原则已?#23545;?#19981;能?#35270;?#26102;代发展需要这就迫?#34892;?#35201;在机器人三原则?#34987;?#30784;上进一步为人工智能发展制定规则

                        人工智能发展的新规则至少应包含以下四个方面内容第一应禁止机器人拥有人类所有智能也就是?#25285;?#22312;设计和制造机器人时应留一手例如不能让机器人拥有制造或繁殖自己的能力第二应建立人工智能研究伦理审查委员会审查智能机器人研究计划对于机器人拥有人类所有智能的研究计划不予批准禁止利用任何资金?#25163;?#36825;类研究计划第三与立法禁止化学和生物学武器类似设计和制造智能机器人的国家以及相应国际机构应立法禁止生产与人类一样聪明甚至比人类更聪明的智能机器人违反此类法律者要承担刑事责任第四要求科学家和企业设计与制造行动合乎道德的机器人让机器人与我们一样自主做出合乎道德的决定这是一件比较困难的事情鉴于近几年应用功能性核磁共振?#38469;?#30740;究大脑的成果人们的道德直觉和道德判断也可能有神经生物学基础甚至也可能有基因基础这就给研发行动合乎道德的机器人的计划提供了科学基础

                        在?#20048;?#26234;能机器人危害人类的同时也应考虑如何正确对待它们如果机器人没有感知疼痛的能力那么它就是没有道德地位的只是人类的工具而已?#27426;?#19968;旦机器人能感知疼痛就会产生伦理问题我们不能?#25105;?#23545;待能感知疼痛的动物即使在一定条件下我们需要利用它们进行实验研究也要关心它们的福利对它们的研究方案要经过动物实验机构伦理委员会审查批准同理一旦机器人能感知疼痛我们就应像对待能感知疼痛的动物一样对待它们机器人一旦有了自我意识包括理性情感以及社会互动能力在?#25345;?#24847;义上就应被当作具有人格的人或社会的人来对待享有生命和福利受保护的权利

                        作者为中国社会科学院哲学研究所研究?#20445;?nbsp; 


                        人民日报 2016年11月22日 07 版
                        (责编?#26477;中?#40527;夏晓伦)

                        推荐阅读

                        Ʊ㽭20ѡ5