一般来说,人类制造机器人是为了让自己的生活更加方面,但如果我告诉你著名的机器人三定律中的第二条正在遭遇挑战,一种在特殊情况下可以不必服从人类命令的机器人已经被制造出来了,你会怎么想?第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一及第二法则下,机器人必须保护自己。上面这个是著名科幻小说家艾萨克・阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则
一般来说,人类制造机器人是为了让自己的生活更加方面,但如果我告诉你著名的机器人三定律中的第二条正在遭遇挑战,一种在特殊情况下可以不必服从人类命令的机器人已经被制造出来了,你会怎么想?
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
上面这个是著名科幻小说家艾萨克・阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则。现在Tufts大学人机交互实验室的研究者们却开始挑战第二法则了,他们研制的机器人可以在特殊情况下拒绝人类发出的指令。
在上面这个案例中,人类向这个机器人发出命令让它向前走,不过机器人却两次拒绝了人类的要求,因为它自己觉得前面已经没路了,这样对自己不安全。
上图演示的是另外一个案例,机器人前行的路上被布置了障碍物,当人类要求机器人继续向前走时,同样遭到了机器人的拒绝。
所以,机器人必须服从人类命令这一法则已然遭受了挑战。对于Tufts大学的这些研究们来说,他们想做的当然不是让机器人去挑战人类,由于人类往往会给机器下一些非常荒谬的命令,所以整体上来说研究者们希望人能与机器更好的交互。在上面的这两个案例中,机器人都给出了拒绝人类的理由,人类其实也可以根据机器人给出的理由来修正自己的命令,进而继续让机器做自己想让它做的事。
比如,在人类修正命令后,机器人还是按照人类的要求继续向前走了。
我看完之后想的是,当这么聪明的机器人被赋予深度学习能力后,真的会走上反抗人类的道路吗?
微信搜索“站长搜索”关注抢6s大礼!下载站长搜索客户端(戳这里)也可参与评论抽楼层大奖!
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!