去年10月,特斯拉CEO伊隆・马斯克(Elon Musk)曾表示,人工智能是“对人类生存最大的威胁”,而开发能思考的机器就像是“召唤恶魔”。去年12月,著名物理学家史蒂芬・霍金(Stephen Hawking)指出,“全面的人工智能将意味着人类这一种族的灭亡”
去年10月,特斯拉CEO伊隆・马斯克(Elon Musk)曾表示,人工智能是“对人类生存最大的威胁”,而开发能思考的机器就像是“召唤恶魔”。去年12月,著名物理学家史蒂芬・霍金(Stephen Hawking)指出,“全面的人工智能将意味着人类这一种族的灭亡”。今年,微软创始人比尔・盖茨(Bill Gates)也表示,他“对超级智能感到担忧”,而这样的超级智能只需几十年就会诞生。
不过,即使认为人类将由于“杀人机器人”而面临威胁,这样的问题也不太可能来自人工智能,而更有可能是由于“人工愚蠢”。人工智能和人工愚蠢之间的差异反映了我们看待计算机的方式。
关于人工智能,大部分人担心的一点在于,计算机会认为人类是错误的产物并杀死人类。对人类来说,这无疑非常糟糕,但对计算机来说可能是明智的决定。
但业内专家表示,真正令人担忧的是,计算机程序会在无缘由的情况下,迅速而过度地完成某项单一工作。例如,一个生产回形针的机器可能会失控,导致在一夜之间生产出大量无用的回形针。
换句话说,这里发生了非常愚蠢的错误,而错误影响范围很大。在关于人工智能导致世界末日的报道中,你可能会看到“终结者”机器人的说法,但实际上这仍停留在想象之中。
麻省理工学院物理学教授、未来生命研究所主席马克斯・泰格马克(Max Tegmark)表示:“你真正应该担心的是,一台计算机在某个非常狭隘的领域变得非常强大。”
今年6月底,德国一名工人遭到工厂生产线机器人的意外伤害而身亡。当时,泰格马克表示:“这表明,机器非常愚蠢,将人体当做了一块金属材料。”
未来生命研究所近期获得了马斯克的1000万美元资助,以探索如何避免自动化程序带来危害。不过包括马斯克、霍金和盖茨在内,许多人似乎都没有注意到真正的潜在威胁。
目前来看,没有任何证据表明,机器人工智能能产生意识,并出现杀死自己创造者的想法。
非盈利组织艾伦人工智能研究所负责人奥林・艾奇奥尼(Oren Etzioni)表示:“这种对世界末日的设想搞混了科学的边界,实际上是讨论关于思想和意识等哲学问题。如果有更多人学会软件开发,他们就会发现计算机其实只是很平常的工具。”
那么是什么原因导致了这样的混淆不清?一大原因在于计算机科学家的工作。艾奇奥尼表示:“‘人工智能’一词诞生于50年代,当时人们认为能思考的机器即将出现。我们目前沿用了这一说法。”
“人工智能”一词目前已被广泛应用。谷歌的人工智能项目主要由收购而来的DeepMind负责。这一领域的一家先行者名为Thinking Machines。而研究人员也在关注“深度学习”,这暗示了我们正在创造智能。
深度学习依靠了有层次性的逻辑能力,即神经网络。神经网络中的节点常常被比作人脑的神经元,但实际上两者之间的差别就像面包和太空船那么巨大。
包括DeepMind在内,机器学习领域的大部分研究都主要关注模式识别、行为建议,以及预测。这类似于人脑的能力。
人工智能是科技行业最引人关注的一个领域。亚马逊、Facebook和谷歌正在展开一场竞赛,而Uber和通用电气则将机器学习视为了未来。
但从本质上来看,机器学习就是自动化,而这也是长期以来机器的功能。人类在学习中可以变得更聪明,而机器的“学习”与人类不同。
DeepMind已开发出一款程序,能掌握简单的视频游戏,然而这一程序无法将一款游戏的经验应用至另一款。这一神经网络系统对图片的识别方式与人脑仍有很大差异,并且很容易被击败。
从这类愚蠢的机器行为发展至更广泛的与人类类似的行为被称作“迁移学习”。这一领域目前还停留在研究阶段。
加州大学伯克利分校计算机科学教授斯图亚特・拉塞尔(Stuart Russell)表示:“人工智能专家知道,一台能下象棋的计算机不会渴望去吃掉对方的某个棋子。”他也是未来生命研究所的成员,并且获得了马斯克的资助。他目前正试图通过数学方法,确保“愚蠢”的计算机程序不会与复杂的人类价值产生冲突。
他表示:“生产回形针的程序缺少的是作为背景的价值观。目前的误解在于,唯一的威胁在于机器可能出现意识。”
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!