“原来机器人永远不要伤害人类的原则,现在看来已经被打破。所以,我们建议应该把AI最后的决定权交给人类,让人来做最后的控制,而不是完全让AI做自动的判断、自动的决策
“原来机器人永远不要伤害人类的原则,现在看来已经被打破。所以,我们建议应该把AI最后的决定权交给人类,让人来做最后的控制,而不是完全让AI做自动的判断、自动的决策。”7月27日,360集团创始人周鸿祎在人工智能领域峰会新智者大会发表演讲。他指出,面对人工智能带来各种复杂安全挑战,网络安全行业应当被重新定义,将计算机安全、网络安全升维到数字安全。周鸿祎还表示AI已应用在战争中,不伤人原则已被打破,把AI武器最后的决定权交给人类,让人来做最后的控制至关重要。人工智能最后的底线必须是人。(定西)
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!