澳门新葡亰App > 科幻小说 > 阻止杀手机器人运动,世界多国专家齐聚日内瓦研讨

阻止杀手机器人运动,世界多国专家齐聚日内瓦研讨
2020-04-30 11:10

科技世界网     发布时间:2017-07-16    不久之前,一群科学家、行业带头人和非政府组织共同发起了“阻止杀手机器人运动”,致力于阻止致命性自动武器系统的研发。发起人包括史蒂芬·霍金(Stephen Hawking),美国学者诺姆·乔姆斯基(Noam Chomsky)、伊隆·马斯克(Elon Musk),以及苹果公司共同创始人史蒂夫·沃兹尼亚克(Steve Wozniak),阵容不可谓不强大。这些名人为此次运动吸引了不少关注,亦让立法机构意识到,曾被视作只存在于科幻小说中的杀手机器人,如今就快成为现实了。 但情况当真如此吗?一些研究人员将“杀手机器人”视作一种文化概念,采用另一种方法对其进行了研究。他们指出,就像人类造出的其它东西一样,哪怕再先进的机器人也仅仅是机器而已。如果我们在设置机器人时对技术问题和文化问题多加注意,它们就不会发起机器人革命、背叛人类。 “关键是,‘杀手机器人’这个概念并不是凭空产生的,”该研究的共同作者、纽约州立大学布法罗分校的媒体理论助理教授特罗·卡尔佩(Tero Karppi)指出,“在此之前先有了相关技术和科技,这些系统的构想和研发才得以变成现实。” 换句话说,我们之所以对杀手机器人感到忧虑,是因为我们一直在自己吓唬自己。该研究作者提到了《终结者》或《我,机器人》等电影,它们都假设未来的机器人逐渐会将人类取而代之。而在人工智能领域,我们也常常做出这样的假设。例如,论文中援引了“阻止杀手机器人运动”官网上的一段文章: 在过去十年间,无人武器的使用不断增加,大大改变了战争方式,也带来了新的人权和法律问题。如今,不断进步的科技正致力于研发全自动化武器。这些机器人武器能够自己选择目标并开火,不需要任何人类的干预。 研究人员指出,这些设想是“技术决定论”的体现。该理论的支持者认为,如果技术系统的自动化程度过高,不仅将对社会、还会对整个人类造成毁灭性打击。 “该理论暗示着人类与机器是截然不同的,”研究作者指出,“它似乎认为,‘人类控制机器’与自动化武器、即‘机器控制机器’之间存在绝对的差别。” 但如果我们能以某种方式为机器智能编码、使其无法区分人类与机器之间的区别呢?这是个很有意思的想法:如果没有“人类”与“机器”之分,也就不会有“人类与机器之争”了。 卡尔佩提出,或许我们可以从根本上改变未来机器对人类的理解方式。 “我们可以试着将机器人和机器智能看作人类社会的一部分,”他说道,“思考它们如何与人类共事,而不是独立运作、与人类作对。” 这样一来,我们便可以分析、并重新设计与未来机器人相关的技术了。该研究作者引用了纽约时报的一篇报道:美国国防部近日拨款180亿美元(约合1200亿人民币),用于研发全自动武器系统和技术。 如果我们想改变研发这些系统的方法的话,就应当趁现在行动。仅仅禁止致命性自动化武器是无法从根本上解决这一难题的。我们需要深入该问题的技术与文化层面,才能真正阻止自动化杀伤武器的发展。 要想在未来与机器人和平共处,关键是要意识到,机器人归根结底不过是人类创造出的产物。未来的机器人不会是来自外太空的科技强军,而是由人类一手打造的。 “机器智能已经成为了现实,我们需要学会与它们共处,”卡尔佩指出,“这不仅仅是一个技术或工程问题,还囊括了文化、人性和社会关系。”

澳门新葡亰App 1

据国外媒体报道,今年初,世界多国专家齐聚日内瓦研讨“致命性全自动化武器系统”问题,并一致认为应尽早严控此类机器人的发展与利用。会后,联合国发表最新报告警告称,恐怖分子有可能希望建立一支机器人部队,机器人武器一旦落入恐怖分子之手,后果将不堪设想。

科幻电影《终结者》的镜头:专家认为未来科幻领域中的全自动化武器“机器人杀手”或将很快成为现实。

随着科技的进步,尤其是机器人技术的飞速发展,被预先设置特定程序的机器人将拥有瞄准目标射击的能力,在完全无人控制的情况下坦克也将具备主动寻找目标并自动射击的能力。所有这些并不是凭空想像的科幻,而是一种现实,而且机器人的这种能力可能即将于数年内走进现实。

一些国家正在利用无人驾驶设备执行战场任务,比如“死神”无人机。但是,攻击目标的选择如果没有人类的决策,那世界将会变成一个极其危险的世界。

▲随着人工智能技术的飞速发展,全自动化武器也将很快从科幻作品中走进现实

据国外媒体报道,随着人工智能技术的飞速发展,机器人的“智商”越来越高,功能越来越强大。在人类享受机器人所带来的各种便利的同时,机器人对人类的威胁也越来越大。专家认为,机器人的威胁性将远大于其便利性,未来科幻领域中的全自动化武器“机器人杀手”或将很快成为现实。2017年,人类必须要启动关于禁止“致命性自动武器系统”的磋商程序。

因此,世界多国专家于今年初齐聚日内瓦,专门研讨“致命性全自动化武器系统”问题。专家们一致认为,有多种自动化武器将拥有自动实施攻击的能力。这次会议持续一周时间,会后联合国发表最新报告警告称,此类杀人机器人有落入恐怖分子之手的危险性,而且恐怖分子肯定难以抵挡住这种新型武器的诱惑。

这些全自动化武器可能将彻底改变武装冲突和法律执行的过程。支持者认为,这些机器人杀手是必需的,因为现代战争需要速度,机器人可以让士兵和警察远离伤害。但是,更多的人认为,机器人所带来的威胁要远大于其在军事行动和执法过程中的好处,即弊大于利。攻击目标的选择如果没有人类的决策,那世界将会变成一个极其危险的世界,机器人将在无人控制的情况下做出生死决断,平民被误伤的风险和几率将大幅提升,而且没有任何人需要对此负责。

▲世界多国专家于今年初齐聚日内瓦,专门研讨“致命性全自动化武器系统”问题。图为联合国驻日内瓦办事处总干事穆勒

考虑到全自动化武器所带来的道德、法律、人身等方面的风险,人类必须要先发制人,阻止其发展、生产和使用,已刻不容缓。处理这种威胁的最佳方式就是制定一系列具有法律效力的国际性武器禁令,这里的武器主要是指没有人类意识控制的全自动化武器。至少已有20个国家在联合国会议上提出了这种倡议,即人类应该控制攻击目标的选择和交战与否的决定。四月份,人权观察组织和哈佛法学院国际人权研究中心发表一份最新报告,提出了许多关于禁令的建议。这两个组织一直在致力于禁止全自动化武器的研发与生产。

▲也有一些人辩称,在战场上使用机器人是利用它们来挽救生命

无生命的机器人,它们根本无法真正理解生命的价值与意义。这些福斯特-米勒“魔爪”机器人装备了多种武器。专家认为,如果这样的系统被制造成全自动化,它们有可能攻击错误的目标。

联合国报告认为,“虽然在最初阶段,这些全自动化武器系统可能只有科技发达国家才会拥有,但是也极有可能很快扩散。此外,恐怖分子没有任何遵守国际规范的动机,这也进一步增加了全球或地区不稳定性。现在有许多武器系统可以实施自动攻击。”在这种情况下,这些致命性武器系统可以成倍地提升武力和攻击力。因此,对这些武器系统进行人为干涉和严格控制是非常有必要的。

这款“死神”无人机携带有GBU-12铺路Ⅱ激光制导炸弹。这款“死神”无人机携带有GBU-12铺路Ⅱ激光制导炸弹。

此前,也有一份相关报告呼吁,在科技飞速发展的今天,人类更应该保持对所有武器系统的控制。报告认为,在战斗中武器系统的一些关键功能必须要靠人来控制,包括目标的选择,从而才可以尽最大可能挽救生命,并保证战斗人员遵守国际法。“人权观察组织”武器部高级研究专员鲍尼-多切蒂认为,“长期以来,机器人一直充当战争的工具,但都是人类在控制和使用它们。现在,一个真正的威胁是,人类放松了这种控制,并将生杀大权赋予了机器人。”不过,也有一些人辩称,在战场上使用机器人是利用它们来挽救生命。

人类对武器保持控制也是一种道德的必要,因为人类有恻隐之心,在伤害其他个体时他们会有情感上的压力。对人类尊严的尊重,可以也是应该作为对杀戮的抑制。相反,机器人没有真正的情感,它们根本没有方向和限度。此外,无生命的机器人,它们根本无法真正理解生命的价值与意义。

去年,来自全球各国1000多位科学家和机器人专家发表公开信,警告称这种致命性全自动化武器将于数年内成为现实,而不是几十年后。这些科学家和专家包括世界着名物理学家史蒂芬-霍金、特斯拉公司CEO埃隆-马斯克和苹果联合创始人斯蒂芬-沃兹尼克等。在公开信中,他们声称,如果任何军事大国或组织致力于研发全自动化武器,那么全球性武器军备竞赛将不可避免。如果任由这种趋势的发展,全自动化武器将可能成为明天的AK-47。

人为控制也可以推动人类对国际法的遵守,因为国际法也是为了保护平民和士兵。人类可以根据以往的经验和道德考量做出自己的判断,可以根据不同的实际情况做出不同的决定。然而,全自动化武器则几乎不可能有此判断力,它们所执行的程序也不可能考虑到所有的情节。因此,这些武器不可能成为一名“理性的指挥官”,拥有传统的处置复杂、不可预见局面的能力。此外,失去人类控制将可能威胁目标的一种权利,即不能任意剥夺别人的生命权。在任何的执法环节和军事行动中,保证这一基本权利也是一种责任。在评估攻击的必要性时,必须要做出此判断,而做出合理的判断,人类的能力要强于机器人。

澳门新葡亰App ,一直以来,霍金教授都坚持自己的反对态度。“我认为人工智能的进步并不一定是有利的。机器人一旦到了能够自我进化的阶段,我们将无法预测它们的目标中是否包括我们自己。人工智能的进化速度有可能会超越人类。”据总部位于英国伦敦的“禁止杀人机器人运动”组织介绍,美国、中国、以色列、韩国、俄罗斯和英国等国家仍在致力于此类系统的研发,希望能够进一步提高武器的自动化作战能力。

现在,要想找到可以负法律责任的全自动化武器研发者和生产商仍然存在不少障碍。在美国,政府为大多数武器生产商制订了豁免政策。当然,美国检测武器产品质量的标准也非常高,这样也可以促使武器生产商更具法律责任感。在4月份在日内瓦召开的一次联合国会议上,94个国家倡议启动关于“致命性自动武器系统”的磋商。这些国家将共同商讨常规武器公约是否能够限制“致命性自动武器系统”的生产。12月,加入这一公约的国家将召开会议,制定未来工作的日程表。最为关键的是,各成员国应该商定于2017年正式启动关于“致命性自动武器系统”的磋商程序。

不过,谷歌董事长埃里克-施密特在本周表达了自己的观点。他认为,所有人都“不应该对人工智能有恐慌心理”。施密特表示,“科学史表明,任何技术在最终改善人类生活之前,最初常常会受到质疑,并成为恐惧的对象。”虽然“世界末日”的假想也是值得考虑的情形,但是人工智能的发展的最理想方向是帮助人类解决问题。“谷歌和其它许多公司也一起在致力于人工智能安全性的研究,这样才能保证人类在必要时可以暂停人工智能系统。”

在不久的将来,《钢铁侠2》中的军用机器人或将走进现实。在不久的将来,《钢铁侠2》中的军用机器人或将走进现实。

裁军首先需要人类对武器的控制。比如,国际社会已经制定了得到广泛认可的公约,用来禁止生物武器、化学武器和地雷等。因此,各国现在也应该禁止“致命性自动武器系统”。专家建议,在12月的会议上,各个已加入常规武器公约的国家也应该齐心一致向这一目标努力。他们首先要通过谈判达成一个新的国际性协定来定义“致命性自动武器”。其次,在2017年,各国还需要花费足够的时间进行深入研究。考虑到国际法律的制定过程漫长,各国可以先快速地定义“致命性自动武器”的威胁。专家最后还建议,各国应该抓住这次会议的最佳机遇,因为别无选择,不能因为科技超越外交而给人类带来可怕的后果