首页 > 资讯列表 >  本页面生成原作中的他屹立于人类顶点专题报道,原作中的他屹立于人类顶点滚动新闻,原作中的他屹立于人类顶点业界评论等相关报道!
  • 硅谷热辩:AI是否会毁灭人类?

    硅谷热辩:AI是否会毁灭人类?

    5月22日消息,随着生成式人工智能等新技术成为科技界新热潮,关于人工智能是否会毁灭人类的争论愈演愈烈。有知名科技领袖警告称,人工智能可能会接管整个世界。其他研究人员和高管则表示,这种说法是科幻小说。在上周召开的美国国会听证会上,人工智能初创企业OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)明确提醒大家,该公司公开的这项技术存在安全风险。奥尔特曼警告说,ChatGPT聊天机器人等人工智能技术可能会引发虚假信息和恶意操纵等问题,并呼吁进行监管。他表示,人工智能可能“对世界造成严重伤害”。奥尔特曼在美国国会作证之际,关于人工智能是否会主宰世界的辩论正转向主流,整个硅谷和致力于推广人工智能技术的人士意见不一、分歧也越来越大。以前曾有个别人认为,机器的智力水平可能会突然超越人类,并决定毁灭人类,现在这种边缘型想法正在获得越来越多人的支持。一些权威科学家甚至都认为计算机学会超越人类并能控制人的时间将有所缩短。但许多研究人员和工程师表示,虽然不少人担心现实中出现像电影《终结者》中的天网那种杀手型人工智能,但这种担忧并不是基于合乎逻辑的好科学。相反其分散了人们对这种技术已经造成现实问题的注意力,包括奥尔特曼在证词中所描述的问题。现在的人工智能技术正在混淆版权,加剧人们对数字隐私和监控的担忧,还可能被用来提高黑客突破网络防御的能力。谷歌、微软以及OpenAI都已经公开发布突破性的人工智能技术。这些技术可以与用户进行复杂对话,并根据简单文本提示生成图像。关于邪恶人工智能的争论已经升温。“这不是科幻小说,”人工智能教父、谷歌前员工杰弗里·辛顿(Geoffrey Hinton)说。辛顿表示,比人类更聪明的人工智能可能会在5到20年内出现,而他之前的估计是30到100年。“就好像外星人已经登陆地球或即将登陆,”他说。“我们真的无法接受,因为它们讲话流利,它们很有用,它们会写诗,还会回复无聊的信。但它们真的是外星人。”尽管如此,在大型科技公司内部,许多与这项技术有密切关系的工程师并不认为人工智能取代人类是大家现在需要担心的事情。人工智能初创公司Cohere旗下研究实验室Cohere for AI主管、前谷歌研究员萨拉·胡克(Sara Hooker)说:“在积极从事这一学科的研究人员中,关注当前现实风险的人远远多于关注人类是否有生存风险的人。”目前的现实风险很多,比如发布受过不良内容训练的机器人会加深偏见和歧视等问题;人工智能的绝大多数训练数据用的都是英语,主要来自北美或欧洲,这可能会使互联网更加偏离大多数人的语言和文化;这些机器人还经常编造虚假信息,将其伪装成事实;在某些情况下,它们甚至会陷入攻击用户的无限循环对话。此外,人们也不清楚这项技术带来的连锁反应,所有行业都在为人工智能可能带来的颠覆或变革做准备,甚至律师或医生等高薪工作也会被取代。也有人认为,未来人工智能可能会伤害人类,甚至以某种方式控制整个社会。虽然事关人类生存的风险似乎更加严峻,但许多人认为,这种风险更难量化,也不那么具体。“有一群人认为,这些只是算法。它们只是在重复网上看到的内容。”今年4月份谷歌首席执行官桑德尔·皮查伊(Sundar Pichai)在接受采访时表示:“还有一种观点认为,这些算法正涌现出新特性,具有创造力、推理能力和规划能力。”“我们需要审慎对待这件事。”这场争论源于过去10年间计算机科学领域机器学习技术的不断突破。机器学习创造出相关软件和技术,可以在没有人类明确指令的情况下,从大量数据中提取出新颖见解。这种技术在社交媒体算法、搜索引擎和图像识别程序等各种应用中无处不在。去年,OpenAI和其他几家小公司开始陆续发布使用新机器学习技术的工具:生成式人工智能。这种所谓的大语言模型用网上抓取的上万亿张照片和句子进行自我训练后,可以根据简单提示生成图像和文本,与用户开展复杂对话,并编写计算机代码。未来生命研究所(Future of Life Institute)执行董事安东尼·阿吉雷(Anthony Aguirre)说,大公司正在竞相开发越来越智能的机器,几乎没有任何监管。未来生命研究所成立于2014年,目的是研究社会存在的风险。在特斯拉首席执行官埃隆·马斯克(Elon Musk)的资助下,研究所于2015年开始研究人工智能毁灭人类的可能性。阿吉雷说,如果人工智能获得比人类更好的推理能力,它们就会试图实现自我控制。这是值得人们担心的,就像现在存在的现实问题一样。他说:“如何约束它们不偏离轨道,将变得越来越复杂。”“不少科幻小说已经说得很具体了。”今年3月份,阿吉雷帮助撰写了一封公开信,呼吁暂停训练新的人工智能模型6个月时间。这封公开信共获得27000位人士签名支持,获得2018年计算机科学最高奖项的资深人工智能研究员约书亚·本吉奥(Yoshua Bengio)和最具影响力的人工智能初创企业之一首席执行官埃马德·莫斯塔克(Emad Mostaque)都位列其中。马斯克无疑是其中最引人注目的。他曾帮助创建OpenAI,现在自己也在忙着组建人工智能公司,最近投资了训练人工智能模型所需的昂贵计算机设备。多年来马斯克一直认为,人类应该对发展超级人工智能的后果倍加小心。在上周特斯拉年度股东大会期间接受采访时,马斯克表示,自己当初之所以资助OpenAI,是因为他觉得谷歌联合创始人拉里·佩奇(Larry Page)对人工智能的威胁“漫不经心”。美版知乎Quora也在开发自家人工智能模型。公司首席执行官亚当·德安吉洛(Adam D’angelo)没有在公开信上签名。他在谈到这封公开信时说,“人们提出这项建议时有各自不同的动机。”OpenAI首席执行官奥尔特曼也不认可公开信内容。他表示,自己赞同这封公开信的部分内容,但总体上缺乏“技术细节”,并不是监管人工智能的正确方式。奥尔特曼在上周二举行的人工智能听证会上表示,他公司的做法是尽早向公众推出人工智能工具,以便在技术变得更强大之前发现和解决问题。但科技界有关杀手型机器人的争论越来越多。其中一些最严厉的批评来自多年来一直研究这项技术缺陷的研究人员。2020年,谷歌研究人员蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)与华盛顿大学学者艾米丽·M·本德(Emily M. Bender)和安吉丽娜·麦克米兰-梅杰(Angelina McMillan-Major)合作撰写了一篇论文。他们认为,大语言模型模仿人类的能力不断增强,这加剧了人们会认为它们是有感情的风险。相反,他们认为这些模型应该被理解为“随机的鹦鹉学舌”,或者说仅仅是非常擅长纯粹根据概率预测句子接下来会出现哪一个单词,而不需要理解自己在说什么。其他批评者称大语言模型是“自动补全”或“知识灌肠”。他们详细记录了大语言模型如何照本宣科地生成性别歧视等不良内容。格布鲁说,这篇论文曾被谷歌压下来了。在自己坚持公开发表这篇文章后,谷歌解雇了她。几个月后,公司又解雇了米切尔。这篇论文的四位合作者也写了一封信,以此回应马斯克等人签名的公开信。他们说:“用一个幻想中的人工智能乌托邦或世界末日来分散我们的注意力很危险。”“相反,我们应该关注那些开发公司非常真实、非常现实的剥削行为,这些公司正在迅速集中力量,加剧社会不平等。”谷歌当时拒绝就格布鲁被解雇一事发表评论,但表示仍有许多研究人员在研究负责任和合乎道德的人工智能。“毫无疑问,现代人工智能是强大的,但这并不意味着它们对人类生存的威胁迫在眉睫,”Cohere公司人工智能研究主管胡克说。目前,关于人工智能摆脱人类控制的大部分讨论都集中在其如何迅速克服自身的限制上,就像《终结者》中的天网一样。胡克说:“大多数技术和技术中存在的风险都是逐步变化的。”“目前存在的技术限制加剧了大多数风险。”去年,谷歌解雇了人工智能研究员布莱克·莱蒙(Blake Lemoine)。他在接受采访时曾表示,自己坚信谷歌的LaMDA人工智能模型具有感知能力。当时,莱蒙遭到了业内许多人的严厉斥责。但一年后,科技界也有不少人开始接受他的观点。前谷歌研究员辛顿说,直到最近使用了最新的人工智能模型之后,自己改变了对这项技术潜在危险的既定看法。辛顿向计算机程序提出一些复杂的问题,在他看来,这些问题需要人工智能模型能大致理解他的请求,而不仅仅是根据训练数据预测出可能的答案。今年3月份,微软研究人员表示,在研究OpenAI的最新模型GPT4时,他们观察到了“通用人工智能的火花”,其指的就是能够像人类一样独立思考的人工智能。微软已经花了数十亿美元与OpenAI合作开发必应聊天机器人。质疑者认为,微软正在围绕人工智能技术打造自己的公众形象。人们总认为这种技术比实际情况更先进,微软可以从中获益良多。微软研究人员在论文中认为,这项技术仅仅基于所训练的文本内容,就已经发展出对世界空间和视觉的理解。GPT4可以自动画出独角兽,并描述如何将包括鸡蛋在内的随机物体堆叠在一起,让鸡蛋不会破碎。微软研究团队写道:“除了掌握语言之外,GPT-4还可以解决涉及数学、编程、视觉、医学、法律、心理学等领域的各种复杂新问题,而且不需要任何特殊提示。”他们总结说,人工智能在许多领域的能力与人类相当。不过其中一位研究人员承认,尽管人工智能研究人员曾尝试制定量化标准来评估机器的智能程度,但如何定义“智能”依旧非常棘手。他说,“它们都存在问题或有争议。”(辰辰) ...

    业界动态 2023-05-22 09:37:15
  • 【点石成金】监管人工智能应该着眼于人与人工智能的主体性关系

    【点石成金】监管人工智能应该着眼于人与人工智能的主体性关系

      《点石成金》汇集每周财讯商情,邀请专家深度点评,与您一起探索经济社会底层逻辑。  本周热点  负电价有望带来正效益  物联网助力中国“银发族”探索自由年轻式“享老”  面向Web3.0的区块链SIM卡问世  严格监管ChatGPT,全球首个AI法案立法在欧盟内部迈出第一步  反转!美国债务上限协议要成?  负电价有望带来正效益  据经济日报报道,近日负电价备受关注。事实上,这表明电力市场化改革迈出了一大步。“五一”期间,山东电力现货市场实时交易电价大幅波动,多次出现负电价。对于负电价,很多人不理解,甚至认为是市场机制失灵了。实际上,通过竞价产生的负电价给出了有效的市场信号,对中国推动能源绿色低碳转型,如期实现“双碳”目标具有重要意义。负电价是指市场中的电力价格低于零。它意味着,发电企业在销售电力时,不仅赚不到钱,反而要给电网企业或者电力用户支付一定费用,吸引他们将多余的电力消纳掉。  点评:负电价不是什么新鲜事,但也不是常见的事;而且它的发生往往在短时间之内。不言而喻,市场交易以正价格为主。从微观角度看,谁也不愿意以负价格做赔本的买卖。从宏观角度看,在经济总量上,市场供给大于需求,可能发生经济衰退,而不是出现负价格。从市场角度看,负价格是一个信号。某种商品的市场在短时间内出现了供给与需求失衡,因此出现了价格偏离。在这个意义上,负电价有望带来正效益。但是,为了促进经济发展,力求供给与需求平衡,我们并不希望在市场交易中出现负价格。负电价可能会刺激用电需求。但是,用户端的用电设备也有特定的性能和使用寿命,过度用电或者不合理用电,会影响设备的效率和安全,因此负电价不是解决电力供需平衡的有效办法。如果出现了负价格,需要在供给端或需求端采取纠正价格偏离的措施。正如上期《点石成金》所说,解决这个问题的根本办法是把电力储存起来,即储能。这样才能解决电力生产与消费的匹配问题,更好地平衡供给与需求的关系。  物联网助力中国“银发族”探索自由年轻式“享老”  据中国新闻网报道,近日,记者在位于江苏无锡的中国物联网国际创新园,探寻中国“银发族”养老的更多可能与选择。在这里,从算法到应用,从软件到硬件,物联网技术让“服务老人”这件事变得更可触可感。据专业人士介绍,目前正基于数据底座研究AI管理服务模型,以实现数字驱动的养老管理服务智慧模式,相关成果已推广到全国42个城市。硬件的创新应用,让关爱老人有了更多智能抓手。例如,将毫米波雷达技术集合在轻便的黑匣子里,将其安装在房间内,达到非接触感知、不侵犯隐私、精准防控老人摔跤的效果。对养老机构中需24小时监护的失能老人,设计了基于物联网技术的智能床垫,监护他们的呼吸、心率,一有异常,护工手机会接到报警。  点评:目前,运用物联网管理养老院成为一种潮流。护理和监测是其中的主要工作内容。利用可穿戴技术,可以监测患者的健康状态,如心率、血压、血糖、血氧饱和度等,提前知晓老人的健康隐患,为护理提供了信息保障,优化了对老年人的护理方法。再如,可以在老年居室里的用品,如水壶、炊具、床、桌椅等物品上放置环境传感器,监测老人的生活变化,防止发生事故。例如,如果有人跌倒,监测器就会立即发出警报。在大数据时代,物联网可以提供实时的老人状态数据。一方面,利用个性化数据可以实现个性化的老人护理。更重要的是把这些数据集合起来,实现有关产业和部门的数据共享,能为科学养老提供新方法。  面向Web3...

    区块链 2023-05-19 20:20:22
  • 人类史上头一遭!津巴布韦发行了“金本位数字货币”

    人类史上头一遭!津巴布韦发行了“金本位数字货币”

    饱受货币贬值之苦的津巴布韦,决心要在金融史上留下轰轰烈烈的一笔。5月初,这个非洲小国宣布,计划发行由黄金储备支持的数字货币,作为法币...

    区块链 2023-05-15 21:28:50
  • OpenAI最新成果:让AI「自我解剖」,结果人类更怕了

    OpenAI最新成果:让AI「自我解剖」,结果人类更怕了

    大自然创造人类来理解自然,人类创造AI来理解自己。作者|FounderPark就算在新产品满天飞,商业文明正在被AI重建的当下,我们仍然不知道,这些令人惊叹的技术是如何运作的...

    智能设备 2023-05-11 11:10:38
  • 禁用ChatGPT的队伍又添一大员!三星新政策限制工作中使用AI

    禁用ChatGPT的队伍又添一大员!三星新政策限制工作中使用AI

    银行、科技公司都害怕尝到信息泄漏的苦头,因此对人工智能谨慎远观。财联社5月3日讯(编辑马兰)据一份内部备忘录显示,三星本周推出了一项新政策,要求员工不得在工作场所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能...

    智能设备 2023-05-04 12:08:17
  • AI大牛们预警,但眼前问题或毁灭人类风险,哪个更值得担心?

    AI大牛们预警,但眼前问题或毁灭人类风险,哪个更值得担心?

    5月4日消息,建构当今人工智能基础技术的“大牛们”纷纷发出警告,称该技术存在潜在的危险。然而,他们目前尚未就人工智能的危险性或预防措施达成共识...

    业界动态 2023-05-04 11:08:48
  • 市场监管总局:积极探索大数据、区块链、人工智能等新技术在互联网平台监管执法中的应用

    市场监管总局:积极探索大数据、区块链、人工智能等新技术在互联网平台监管执法中的应用

    4月13日,国新办举行“权威部门话开局”系列主题新闻发布会,国家市场监督管理总局局长罗文表示,市场监管部门主要采取以下五个方面的举措,引导互联网平台的健康发展。一是强化规则制度供给,营造稳定透明可预期的制度环境...

    区块链 2023-04-13 17:19:26
  • 为什么全人类都呼吁把通用人工智能“管起来”?

    为什么全人类都呼吁把通用人工智能“管起来”?

    3月底,马斯克在内的许多社会名流共同签署了一份公开信,希望包括OpenAI在内的机构至少把更高能力的AGI研发暂停6个月,从而让人类社会达成某种基于AGI(通用人工智能)威胁的协议。这封信虽然文本不长,但是涵盖了非常广泛的内容,内含的问题很丰富...

    智能设备 2023-04-13 14:57:04
  • 巴菲特:ChatGPT确实很厉害但不确定能否给人类带来好处

    巴菲特:ChatGPT确实很厉害但不确定能否给人类带来好处

    4月13日消息,当地时间周三传奇投资人士沃伦·巴菲特(WarrenBuffett)在接受采访时表示,自己也试用过人工智能聊天机器人ChatGPT,认为ChatGPT确实很厉害,但还不确定能否给人类带来好处。巴菲特坦言自己并不了解人工智能,但微软联合创始人比尔·盖茨(BillGates)让他也尝试使用了ChatGPT...

    业界动态 2023-04-13 08:12:19
  • 对话ChatGPT,“无论技术如何发展,人类命运依然需要人类自己的回答”

    对话ChatGPT,“无论技术如何发展,人类命运依然需要人类自己的回答”

    3月30-31日,全球青年科技领袖峰会在北京海淀成功举办,本次大会以「人类,为了什么需要创新?」为主题。30日上午,DeepTech联合创始人兼COO张岚出席活动并带来“《麻省理工科技评论》全球220项十大突破性技术解读”分享:“源头创新力量不仅需要从科研端寻找,也需要从产业中进行需求的挖掘,技术解题人和命题人,互不可缺...

    智能设备 2023-04-08 10:45:52
  • 苹果开始通知被选中的开发者参加WWDC2023线下活动

    苹果开始通知被选中的开发者参加WWDC2023线下活动

    IT之家4月6日消息,苹果将于北京时间6月6日至10日举办Apple全球开发者大会(WWDC2023)。现在,苹果已开始向被选中的开发者发送电子邮件,通知他们参与线下活动...

    手机互联 2023-04-06 10:17:12
  • 马斯克“忌惮”的ChatGPT,让人类更聪明还是更愚蠢?

    马斯克“忌惮”的ChatGPT,让人类更聪明还是更愚蠢?

    诞生于茧房,逃不出高墙作者|瀚星封面来源|摄图网从投资入股到“反目成仇”,马斯克与OpenAI在人工智能这条路上渐行渐远。3月29日,未来生命研究所(FutureofLifeInstitute)发布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月...

    智能设备 2023-04-05 10:18:36

站长搜索

http://www.adminso.com

Copyright @ 2007~2024 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持