首页 > 资讯列表 >  本页面生成超人类物种专题报道,超人类物种滚动新闻,超人类物种业界评论等相关报道!

热门搜索

  •  特斯拉三季度营收低于预期,但交付量创纪录,马斯克:明年将实现自动驾驶超越人类

    特斯拉三季度营收低于预期,但交付量创纪录,马斯克:明年将实现自动驾驶超越人类

    特斯拉三季度营收低于预期,但交付量创纪录,马斯克:明年将实现自动驾驶超越人类10月24日消息,美国当地时间周三,特斯拉公布了该公司2024年第三季度财报。财报显示,特斯拉第三季度营收为251.8亿美元,低于分析师预期的253.7亿美元;其中,汽车业务收入为200.2亿美元;净利润为25.05亿美元,同比增长8%;摊薄后每股收益为0.72美元,超过分析师预期的0.58美元...

    业界动态 2024-10-24 08:56:20
  •  SpaceX 三天四次火箭发射,星舰首飞成功,迈向多行星物种

    SpaceX 三天四次火箭发射,星舰首飞成功,迈向多行星物种

    SpaceX 三天四次火箭发射,星舰首飞成功,迈向多行星物种10月16日消息,从当地时间周日到周二,美国太空探索技术公司SpaceX于48小时内在美国三个州完成了四次火箭发射的重大成就,这对未来太空探索影响深远。第一次发射是在周日,星舰火箭从得克萨斯州南端发射升空...

    业界动态 2024-10-16 08:32:25
  • 卡巴斯基郑启良:AI的不规范使用可能带给人类巨大风险

    卡巴斯基郑启良:AI的不规范使用可能带给人类巨大风险

    6月9日消息,卡巴斯基于8日在京举办媒体见面会,分享了其对2023年安全行业可能出现的威胁格局变化趋势,并对卡巴斯基近年业务发展情况做了说明和展望。卡巴斯基大中华区总经理郑启良“今年上半年,卡巴斯基中国市场的业务增长速度已经超过去年同比20%以上,疫情之后,似乎一切都回归到正常...

    业界动态 2023-06-13 10:59:59
  • 人工智能会导致人类灭亡吗?专家称更担心虚假信息和操纵用户

    人工智能会导致人类灭亡吗?专家称更担心虚假信息和操纵用户

     6月4日消息,随着人工智能技术的快速发展和普及,很多行内人士担心不加限制的人工智能可能会导致人类灭亡。但专家们表示,人工智能带来的最大负面影响不太可能是科幻电影中的核战场面,反而更有可能是虚假信息、操纵用户等造成的社会环境不断恶化...

    业界动态 2023-06-04 10:01:20
  • 美军否认进行“AI无人机杀死人类操控员”测试,当事人收回言论

    美军否认进行“AI无人机杀死人类操控员”测试,当事人收回言论

    来源:环球网【环球网报道】事件反转?据英国《卫报》等多家外媒6月2日消息,对于此前媒体报道称“美军人工智能(AI)无人机模拟测试杀死人类操控员”,美国空军1日晚进行否认,称没有进行过这样的测试。另外,此前披露该消息的美空军人工智能测试和行动计划主管官员塔克·汉密尔顿也发声,称其“说错了”,收回相关言论...

    智能设备 2023-06-03 11:36:50
  • 中国工程院院士李克强:中国自动驾驶产业化速度远超人们的预想

    中国工程院院士李克强:中国自动驾驶产业化速度远超人们的预想

    5月29日消息,近日中关村平行论坛“硬科技投资与发展论坛”现场,中国工程院院士、清华大学教授李克强进行主题演讲。他谈到,中国自动驾驶产业化速度实际上已经超过我们的预想,去年的L2级的装车量已经接近35%,国家层面正在从高级别的驾驶的准入,包括网联式等等在部署,快速在推进产业化...

    业界动态 2023-05-29 16:08:21
  • 英伟达AI智能体接入GPT-4,完胜AutoGPT!自主写代码独霸我的世界,无需人类插手

    英伟达AI智能体接入GPT-4,完胜AutoGPT!自主写代码独霸我的世界,无需人类插手

    新智元报道编辑:Aeneas 好困【新智元导读】给游戏行业来点GPT-4式震撼?这个叫Voyager的智能体不仅可以根据游戏的反馈自主训练,而且还能自行写代码推动游戏任务。继斯坦福的25人小镇后,AI智能体又出爆款新作了。最近,英伟达首席科学家Jim Fan等人把GPT-4整进了「我的世界」(Minecraft)——提出了一个全新的AI智能体Voyager。Voyager的厉害之处在于,它不仅性能完胜AutoGPT,而且还可以在游戏中进行全场景的终身学习!比起之前的SOTA,Voyager获得的物品多出了3.3倍,旅行距离变长了2...

    智能设备 2023-05-27 16:03:18
  • 谷歌前CEO:人工智能会给人类带来“生存风险”

    谷歌前CEO:人工智能会给人类带来“生存风险”

    5月25日消息,当地时间周三谷歌前首席执行官埃里克·施密特(Eric Schmidt)警告称,人工智能可能会导致很多人“受到伤害或者死亡”(harmed or killed),给人类带来“生存风险”,政府需要知道如何确保这项技术不会“被坏人滥用”。当下,人工智能未来走向已经成为技术专家和政策制定者的讨论焦点,他们正在努力探讨人工智能的未来发展趋势以及该如何进行监管...

    业界动态 2023-05-25 08:01:30
  • 马斯克:人工智能毁灭人类的可能性很小但绝非不可能

    马斯克:人工智能毁灭人类的可能性很小但绝非不可能

    5月24日消息,美国当地时间周二,亿万富翁埃隆·马斯克(Elon Musk)参加《华尔街日报》CEO委员会伦敦峰会时表示,他认为有必要建立能与谷歌和微软竞争的人工智能公司,这可能涉及其商业帝国的不同部分,包括推特。在伦敦峰会开幕式上,马斯克表示他去年斥资440亿美元收购推特的努力正在取得成果。他说,推特目前还不是很赚钱,但最快下个月就可能实现现金流正增长。自马斯克将其私有化以来,推特不再公开报告财务业绩,自2019年以来始终没有盈利。马斯克表示,推特可能是他创建人工智能业务的重要组成部分。特斯拉也始终在使用人工智能来改进其先进的司机辅助驾驶功能。马斯克称,推特和特斯拉可以成为一家人工智能公司的合作伙伴,就像微软和OpenAI那样。此前,马斯克已经创建了名为X.AI的人工智能公司。马斯克说:“我认为,人工智能竞赛中应该有第三匹马(be a significant third horse)。”作为推特和特斯拉的老板,马斯克长期以来始终试图引导人工智能的发展方向。他对人工智能领域快速取得的进展表示担忧,并呼吁政府进行监管。“人工智能毁灭人类的可能性很小,但绝非不可能。”马斯克周二称。(小小) ...

    业界动态 2023-05-24 08:33:21
  • 硅谷热辩:AI是否会毁灭人类?

    硅谷热辩:AI是否会毁灭人类?

    5月22日消息,随着生成式人工智能等新技术成为科技界新热潮,关于人工智能是否会毁灭人类的争论愈演愈烈。有知名科技领袖警告称,人工智能可能会接管整个世界。其他研究人员和高管则表示,这种说法是科幻小说。在上周召开的美国国会听证会上,人工智能初创企业OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)明确提醒大家,该公司公开的这项技术存在安全风险。奥尔特曼警告说,ChatGPT聊天机器人等人工智能技术可能会引发虚假信息和恶意操纵等问题,并呼吁进行监管。他表示,人工智能可能“对世界造成严重伤害”。奥尔特曼在美国国会作证之际,关于人工智能是否会主宰世界的辩论正转向主流,整个硅谷和致力于推广人工智能技术的人士意见不一、分歧也越来越大。以前曾有个别人认为,机器的智力水平可能会突然超越人类,并决定毁灭人类,现在这种边缘型想法正在获得越来越多人的支持。一些权威科学家甚至都认为计算机学会超越人类并能控制人的时间将有所缩短。但许多研究人员和工程师表示,虽然不少人担心现实中出现像电影《终结者》中的天网那种杀手型人工智能,但这种担忧并不是基于合乎逻辑的好科学。相反其分散了人们对这种技术已经造成现实问题的注意力,包括奥尔特曼在证词中所描述的问题。现在的人工智能技术正在混淆版权,加剧人们对数字隐私和监控的担忧,还可能被用来提高黑客突破网络防御的能力。谷歌、微软以及OpenAI都已经公开发布突破性的人工智能技术。这些技术可以与用户进行复杂对话,并根据简单文本提示生成图像。关于邪恶人工智能的争论已经升温。“这不是科幻小说,”人工智能教父、谷歌前员工杰弗里·辛顿(Geoffrey Hinton)说。辛顿表示,比人类更聪明的人工智能可能会在5到20年内出现,而他之前的估计是30到100年。“就好像外星人已经登陆地球或即将登陆,”他说。“我们真的无法接受,因为它们讲话流利,它们很有用,它们会写诗,还会回复无聊的信。但它们真的是外星人。”尽管如此,在大型科技公司内部,许多与这项技术有密切关系的工程师并不认为人工智能取代人类是大家现在需要担心的事情。人工智能初创公司Cohere旗下研究实验室Cohere for AI主管、前谷歌研究员萨拉·胡克(Sara Hooker)说:“在积极从事这一学科的研究人员中,关注当前现实风险的人远远多于关注人类是否有生存风险的人。”目前的现实风险很多,比如发布受过不良内容训练的机器人会加深偏见和歧视等问题;人工智能的绝大多数训练数据用的都是英语,主要来自北美或欧洲,这可能会使互联网更加偏离大多数人的语言和文化;这些机器人还经常编造虚假信息,将其伪装成事实;在某些情况下,它们甚至会陷入攻击用户的无限循环对话。此外,人们也不清楚这项技术带来的连锁反应,所有行业都在为人工智能可能带来的颠覆或变革做准备,甚至律师或医生等高薪工作也会被取代。也有人认为,未来人工智能可能会伤害人类,甚至以某种方式控制整个社会。虽然事关人类生存的风险似乎更加严峻,但许多人认为,这种风险更难量化,也不那么具体。“有一群人认为,这些只是算法。它们只是在重复网上看到的内容。”今年4月份谷歌首席执行官桑德尔·皮查伊(Sundar Pichai)在接受采访时表示:“还有一种观点认为,这些算法正涌现出新特性,具有创造力、推理能力和规划能力。”“我们需要审慎对待这件事。”这场争论源于过去10年间计算机科学领域机器学习技术的不断突破。机器学习创造出相关软件和技术,可以在没有人类明确指令的情况下,从大量数据中提取出新颖见解。这种技术在社交媒体算法、搜索引擎和图像识别程序等各种应用中无处不在。去年,OpenAI和其他几家小公司开始陆续发布使用新机器学习技术的工具:生成式人工智能。这种所谓的大语言模型用网上抓取的上万亿张照片和句子进行自我训练后,可以根据简单提示生成图像和文本,与用户开展复杂对话,并编写计算机代码。未来生命研究所(Future of Life Institute)执行董事安东尼·阿吉雷(Anthony Aguirre)说,大公司正在竞相开发越来越智能的机器,几乎没有任何监管。未来生命研究所成立于2014年,目的是研究社会存在的风险。在特斯拉首席执行官埃隆·马斯克(Elon Musk)的资助下,研究所于2015年开始研究人工智能毁灭人类的可能性。阿吉雷说,如果人工智能获得比人类更好的推理能力,它们就会试图实现自我控制。这是值得人们担心的,就像现在存在的现实问题一样。他说:“如何约束它们不偏离轨道,将变得越来越复杂。”“不少科幻小说已经说得很具体了。”今年3月份,阿吉雷帮助撰写了一封公开信,呼吁暂停训练新的人工智能模型6个月时间。这封公开信共获得27000位人士签名支持,获得2018年计算机科学最高奖项的资深人工智能研究员约书亚·本吉奥(Yoshua Bengio)和最具影响力的人工智能初创企业之一首席执行官埃马德·莫斯塔克(Emad Mostaque)都位列其中。马斯克无疑是其中最引人注目的。他曾帮助创建OpenAI,现在自己也在忙着组建人工智能公司,最近投资了训练人工智能模型所需的昂贵计算机设备。多年来马斯克一直认为,人类应该对发展超级人工智能的后果倍加小心。在上周特斯拉年度股东大会期间接受采访时,马斯克表示,自己当初之所以资助OpenAI,是因为他觉得谷歌联合创始人拉里·佩奇(Larry Page)对人工智能的威胁“漫不经心”。美版知乎Quora也在开发自家人工智能模型。公司首席执行官亚当·德安吉洛(Adam D’angelo)没有在公开信上签名。他在谈到这封公开信时说,“人们提出这项建议时有各自不同的动机。”OpenAI首席执行官奥尔特曼也不认可公开信内容。他表示,自己赞同这封公开信的部分内容,但总体上缺乏“技术细节”,并不是监管人工智能的正确方式。奥尔特曼在上周二举行的人工智能听证会上表示,他公司的做法是尽早向公众推出人工智能工具,以便在技术变得更强大之前发现和解决问题。但科技界有关杀手型机器人的争论越来越多。其中一些最严厉的批评来自多年来一直研究这项技术缺陷的研究人员。2020年,谷歌研究人员蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)与华盛顿大学学者艾米丽·M·本德(Emily M. Bender)和安吉丽娜·麦克米兰-梅杰(Angelina McMillan-Major)合作撰写了一篇论文。他们认为,大语言模型模仿人类的能力不断增强,这加剧了人们会认为它们是有感情的风险。相反,他们认为这些模型应该被理解为“随机的鹦鹉学舌”,或者说仅仅是非常擅长纯粹根据概率预测句子接下来会出现哪一个单词,而不需要理解自己在说什么。其他批评者称大语言模型是“自动补全”或“知识灌肠”。他们详细记录了大语言模型如何照本宣科地生成性别歧视等不良内容。格布鲁说,这篇论文曾被谷歌压下来了。在自己坚持公开发表这篇文章后,谷歌解雇了她。几个月后,公司又解雇了米切尔。这篇论文的四位合作者也写了一封信,以此回应马斯克等人签名的公开信。他们说:“用一个幻想中的人工智能乌托邦或世界末日来分散我们的注意力很危险。”“相反,我们应该关注那些开发公司非常真实、非常现实的剥削行为,这些公司正在迅速集中力量,加剧社会不平等。”谷歌当时拒绝就格布鲁被解雇一事发表评论,但表示仍有许多研究人员在研究负责任和合乎道德的人工智能。“毫无疑问,现代人工智能是强大的,但这并不意味着它们对人类生存的威胁迫在眉睫,”Cohere公司人工智能研究主管胡克说。目前,关于人工智能摆脱人类控制的大部分讨论都集中在其如何迅速克服自身的限制上,就像《终结者》中的天网一样。胡克说:“大多数技术和技术中存在的风险都是逐步变化的。”“目前存在的技术限制加剧了大多数风险。”去年,谷歌解雇了人工智能研究员布莱克·莱蒙(Blake Lemoine)。他在接受采访时曾表示,自己坚信谷歌的LaMDA人工智能模型具有感知能力。当时,莱蒙遭到了业内许多人的严厉斥责。但一年后,科技界也有不少人开始接受他的观点。前谷歌研究员辛顿说,直到最近使用了最新的人工智能模型之后,自己改变了对这项技术潜在危险的既定看法。辛顿向计算机程序提出一些复杂的问题,在他看来,这些问题需要人工智能模型能大致理解他的请求,而不仅仅是根据训练数据预测出可能的答案。今年3月份,微软研究人员表示,在研究OpenAI的最新模型GPT4时,他们观察到了“通用人工智能的火花”,其指的就是能够像人类一样独立思考的人工智能。微软已经花了数十亿美元与OpenAI合作开发必应聊天机器人。质疑者认为,微软正在围绕人工智能技术打造自己的公众形象。人们总认为这种技术比实际情况更先进,微软可以从中获益良多。微软研究人员在论文中认为,这项技术仅仅基于所训练的文本内容,就已经发展出对世界空间和视觉的理解。GPT4可以自动画出独角兽,并描述如何将包括鸡蛋在内的随机物体堆叠在一起,让鸡蛋不会破碎。微软研究团队写道:“除了掌握语言之外,GPT-4还可以解决涉及数学、编程、视觉、医学、法律、心理学等领域的各种复杂新问题,而且不需要任何特殊提示。”他们总结说,人工智能在许多领域的能力与人类相当。不过其中一位研究人员承认,尽管人工智能研究人员曾尝试制定量化标准来评估机器的智能程度,但如何定义“智能”依旧非常棘手。他说,“它们都存在问题或有争议。”(辰辰) ...

    业界动态 2023-05-22 09:37:15
  • 人类史上头一遭!津巴布韦发行了“金本位数字货币”

    人类史上头一遭!津巴布韦发行了“金本位数字货币”

    饱受货币贬值之苦的津巴布韦,决心要在金融史上留下轰轰烈烈的一笔。5月初,这个非洲小国宣布,计划发行由黄金储备支持的数字货币,作为法币...

    区块链 2023-05-15 21:28:50
  • OpenAI最新成果:让AI「自我解剖」,结果人类更怕了

    OpenAI最新成果:让AI「自我解剖」,结果人类更怕了

    大自然创造人类来理解自然,人类创造AI来理解自己。作者|FounderPark就算在新产品满天飞,商业文明正在被AI重建的当下,我们仍然不知道,这些令人惊叹的技术是如何运作的...

    智能设备 2023-05-11 11:10:38

站长搜索

http://www.adminso.com

Copyright @ 2007~2024 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持