北京时间11月24日消息,据国外媒体报道,不久之前,一群科学家、行业带头人和非政府组织共同发起了“阻止杀手机器人运动”,致力于阻止致命性自动武器系统的研发。发起人包括史蒂芬·霍金(Stephen Hawking),美国学者诺姆·乔姆斯基(Noam Chomsky)、伊隆·马斯克(Elon Musk),以及苹果公司共同创始人史蒂夫·沃兹尼亚克(Steve Wozniak),阵容不可谓不强大
北京时间11月24日消息,据国外媒体报道,不久之前,一群科学家、行业带头人和非政府组织共同发起了“阻止杀手机器人运动”,致力于阻止致命性自动武器系统的研发。发起人包括史蒂芬·霍金(Stephen Hawking),美国学者诺姆·乔姆斯基(Noam Chomsky)、伊隆·马斯克(Elon Musk),以及苹果公司共同创始人史蒂夫·沃兹尼亚克(Steve Wozniak),阵容不可谓不强大。这些名人为此次运动吸引了不少关注,亦让立法机构意识到,曾被视作只存在于科幻小说中的杀手机器人,如今就快成为现实了。
但情况当真如此吗?一些研究人员将“杀手机器人”视作一种文化概念,采用另一种方法对其进行了研究。他们指出,就像人类造出的其它东西一样,哪怕再先进的机器人也仅仅是机器而已。如果我们在设置机器人时对技术问题和文化问题多加注意,它们就不会发起机器人革命、背叛人类。
“关键是,‘杀手机器人’这个概念并不是凭空产生的,”该研究的共同作者、纽约州立大学布法罗分校的媒体理论助理教授特罗·卡尔佩(Tero Karppi)指出,“在此之前先有了相关技术和科技,这些系统的构想和研发才得以变成现实。”
换句话说,我们之所以对杀手机器人感到忧虑,是因为我们一直在自己吓唬自己。该研究作者提到了《终结者》或《我,机器人》等电影,它们都假设未来的机器人逐渐会将人类取而代之。而在人工智能领域,我们也常常做出这样的假设。例如,论文中援引了“阻止杀手机器人运动”官网上的一段文章:
在过去十年间,无人武器的使用不断增加,大大改变了战争方式,也带来了新的人权和法律问题。如今,不断进步的科技正致力于研发全自动化武器。这些机器人武器能够自己选择目标并开火,不需要任何人类的干预。
研究人员指出,这些设想是“技术决定论”的体现。该理论的支持者认为,如果技术系统的自动化程度过高,不仅将对社会、还会对整个人类造成毁灭性打击。
“该理论暗示着人类与机器是截然不同的,”研究作者指出,“它似乎认为,‘人类控制机器’与自动化武器、即‘机器控制机器’之间存在绝对的差别。”
但如果我们能以某种方式为机器智能编码、使其无法区分人类与机器之间的区别呢?这是个很有意思的想法:如果没有“人类”与“机器”之分,也就不会有“人类与机器之争”了。
卡尔佩提出,或许我们可以从根本上改变未来机器对人类的理解方式。
“我们可以试着将机器人和机器智能看作人类社会的一部分,”他说道,“思考它们如何与人类共事,而不是独立运作、与人类作对。”
这样一来,我们便可以分析、并重新设计与未来机器人相关的技术了。该研究作者引用了纽约时报的一篇报道:美国国防部近日拨款180亿美元(约合1200亿人民币),用于研发全自动武器系统和技术。
如果我们想改变研发这些系统的方法的话,就应当趁现在行动。仅仅禁止致命性自动化武器是无法从根本上解决这一难题的。我们需要深入该问题的技术与文化层面,才能真正阻止自动化杀伤武器的发展。
要想在未来与机器人和平共处,关键是要意识到,机器人归根结底不过是人类创造出的产物。未来的机器人不会是来自外太空的科技强军(但愿如此),而是由人类一手打造的。
“机器智能已经成为了现实,我们需要学会与它们共处,”卡尔佩指出,“这不仅仅是一个技术或工程问题,还囊括了文化、人性和社会关系。”
编辑:admin
标签: 改变 未来 机器 人类 理解 方式 如何 杜绝 杀手
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!