随着人工智能的发展,人类正在把更多决策权交给计算机。问题在于,这些算法并不是透明的,而是掌握在少数科技公司手里
随着人工智能的发展,人类正在把更多决策权交给计算机。问题在于,这些算法并不是透明的,而是掌握在少数科技公司手里。出于商业竞争需求,它们很少透漏决策背后的细节。为此,计算机专家们建议,应当设立第三方的监督机构,以避免算法自身的一些偏见。
据卫报的报道,在一份新报告中,伦敦图灵研究所与牛津大学的研究团队提出了上述想法。他们认为,当人们觉得自己遭到不公正待遇后,第三方机构应该调查人工智能做出的决策。“我们希望看到一个可信任的第三方机构。它应该有检查和监督算法的权力,能够了解算法是否真的透明和公正。”研究人员Sandra Wachter说。
2018年,欧盟成员国将采用一项新法案,以监督人工智能系统的应用。不过,研究人员认为,这项法案的实际作用是值得怀疑的。“有人觉得,这项法案能够让人工智能系统更加透明,但是,这并一定能实现。一切都取决于欧盟成员国法庭的解释,”另一位研究人员Mittelstadt说。
不过,即使第三方机构已经设立,对算法的监督并非一件易事。“监督机构需要如何具备何种能力?我们并不知道完整的答案。因为,人工智能系统是难以预测、不断变化而且难以理解的。开发团队也未必能完全理解。”Mittelstadt说。另外,科技公司可能会抗议,因为现代的人工智能技术是“难以理解”的,例如深度学习。
西英格兰大学的机器人道德学教授Alan Winfield正在主导人工智能行业标准的起草工作,目的是让人工智能系统更加透明,更加容易追责。“监督机构是个非常好的建议,”他说,“这不是一个未来问题,而是一个现实问题。”
但是,他认为科技公司也未必能解释人工智能的决策。那些基于深度学习的算法很不透明,基本上不可能解释其作出某项决策的原因何在。“我向科技公司——比如Google的DeepMind——提出的挑战是,发明一套可以自我解释的深度学习系统,”Winfield说,“那不是件容易的事情,不过,研究这些系统的都是些非常聪明的家伙啊。”
标签: 如何 避免 人工智能 偏见 专家 建议 设立 第三方 监督
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!