首页 > 资讯列表 >  本页面生成对于刚刚加入《宇宙起源》的石灰粉们来说专题报道,对于刚刚加入《宇宙起源》的石灰粉们来说滚动新闻,对于刚刚加入《宇宙起源》的石灰粉们来说业界评论等相关报道!
  • 上官婉儿加入LOL?巴西舅舅党爆大料:新英雄为水墨法师

    上官婉儿加入LOL?巴西舅舅党爆大料:新英雄为水墨法师

    最近,著名的LOL舅舅党巴西老哥再度开扒LOL新英雄的背景故事与技能机制,陆续曝光了使用水墨的中单法师,会喷火的AD龙蛋,以及长着兔子耳朵的上单英雄。根据这位主播的爆料,中单新英雄的技能机制现在初具雏形,她将会借助水墨作为武器,在召唤师峡谷创造艺术佳作,操作十分复杂但又很好玩,值得大家期待一手...

    游戏资讯 2023-10-19 02:46:01
  • 《如龙:维新极》现已加入XGP!Steam特别好评

    《如龙:维新极》现已加入XGP!Steam特别好评

    如龙外传系列重制游戏《如龙:维新 极》现已加入XGP,俯视角射击游戏《霓虹入侵者》也已加入,感兴趣的朋友可前往Xbox APP或者主机下载。目前《如龙:维新 极》的Steam评价为特别好评,口碑还是不错的,值得一试。游戏介绍:该作以19世纪60年代的日本“京都”为舞台,活跃于那个时代的英雄——坂本龙马的另一段传奇即将开始! 游戏拥有借助Unreal Engine而实现的精美画面,焕然一新的系列全明星阵容同台演绎,还有爽快感倍增的战斗系统,以及全新小游戏等等....

    游戏资讯 2023-10-19 02:33:46
  • 承诺难兑现:《收获日3》的首个补丁再次宣布延期

    承诺难兑现:《收获日3》的首个补丁再次宣布延期

    经历了灾难性的发布近一个月后,《收获日3》备受期待的第一个补丁(据说包含200多项生活质量改进)再次推迟,且没有给出具体的时间。社区经理Elisabeth Elvestad在Discord上写道:“我们对第一个补丁缺乏沟通感到抱歉……我们已经确定了一些需要解决的问题,解决后后才能将其提供给您,但请放心,这是我们团队的首要任务...

    游戏资讯 2023-10-19 02:30:12
  • 不攻自破:此前有传言称《使命召唤》本周加入XGP

    不攻自破:此前有传言称《使命召唤》本周加入XGP

    微软收购案完成后,不少知名资讯推主称《使命召唤》将于本周加入XGP。今日会免阵容公布后,传言也不攻自破...

    游戏资讯 2023-10-19 02:28:48
  • 任天堂澄清:《马里奥惊奇》的创作并没有参考电影

    任天堂澄清:《马里奥惊奇》的创作并没有参考电影

    《超级马里奥兄弟:惊奇》的艺术总监佐藤雅信接受采访时表示,本作的创作并没有参考《超级马里奥兄弟大电影》。“我们经常被问到电影对游戏的影响,但我们在开发过程中没有听到任何有关电影内容的消息...

    游戏资讯 2023-10-19 02:19:13
  • 刚刚,苹果iPhone新专利曝光!

    刚刚,苹果iPhone新专利曝光!

    苹果的热度真不是盖的,虽然iPhone15还没发布,关于iPhone16的爆料就来了~在早些时候,韩媒 The Elec 就报告称,苹果有望在明年推出的 iPhone 16 系列(或仅限 iPhone 16 Pro 机型)中使用屏下 Face ID 技术。这也就意味着 iPhone 16 Pro 上可能不会有灵动岛了...

    手机互联 2023-06-13 10:58:48
  • 从华为手机的销量来看,5G对于我们来说未必是刚需!

    从华为手机的销量来看,5G对于我们来说未必是刚需!

    引言:5G手机已经成为手机市场的热点,不少消费者视5G为购买新手机的重要考虑因素,然而,从华为手机销量的角度来看,5G并不是消费者选择手机的决定性因素。本文将从华为手机销量表现和5G网络的实际应用情况两方面来探讨5G对于消费者是否是刚需...

    手机互联 2023-06-08 08:25:31
  • 苹果头显这把火,能点亮元宇宙暗夜吗?

    苹果头显这把火,能点亮元宇宙暗夜吗?

    接任乔布斯12年后,库克终于迎来了真正属于自己的One more thing时刻,寄希望于用MR(增强现实)开启后iPhone时代。在6月6日凌晨的苹果全球开发者大会(WWDC)上,这款MR设备被正式命名为苹果Vision Pro,而非此前传闻中的Reality Pro,售价为3499美元(约为人民币25000元),比传闻中的3000美元起售价更高,且发售时间延迟到明年初,并仅局限在美国地区发售,而非爆料的今年秋季即可交付,其他国家或地区要等到明年晚些时候才能拥有购买资格。在长达逾两个小时的主题演讲中,苹果先后发布了搭载M2芯片的全新15英寸 MacBook Air,搭载M2 Max和M2 Ultra芯片的Mac Studio,以及搭载M2 Ultra芯片的 Mac Pro多款硬件,并逐一亮相了iOS 17、macOS 14、iPadOS 17、watchOS 10等四大系统的功能更新,这些最新系统的正式版本,将在今年秋天推送给所有终端用户。作为今年WWDC的重头戏,苹果用了将近一个小时来讲解首款MR产品的设计、体验和技术创新。在苹果MR发布前一天,天风国际证券知名苹果分析师郭明錤发文称,长期而言,苹果AR/MR头戴设备的成功,关键因素在于能否与人工智能(AI)或生成式人工智能(AIGC)高度整合,但是在英伟达股价飙升的刺激之下,投资者对苹果何时推出类似ChatGPT服务的关注度要高于头戴设备。尽管苹果未曾提及AI大模型相关动向,但在介绍iOS 17功能更新时,苹果高管讲述了借助Transformer这一时下最火热的语言预测模型,对键盘文本输入和听写功能所带来的智能化升级。短短一年时间,AIGC取代元宇宙成为最新风口。曾经重金押注元宇宙的Meta,股价一度暴跌超七成,内部进行了两轮的万人大裁员;字节数十亿元收购的PICO,2000人团队也被爆出15%的裁员计划;微软、谷歌、腾讯、百度等布局元宇宙的科技公司,也纷纷迎来项目和产品的缩减方案。元宇宙寒冬之下,VR/AR行业全村的希望,如今都被放在了苹果一家的身上。尽管库克高调将Vision Pro与Mac开启的个人计算时代,和iPhone开启的移动计算时代相对比,喊出“空间计算时代正在来临”的口号,但面对外观设计和应用体验上并未有突破性创新的Vision Pro,资本市场并未被苹果激发起新热情。北京时间6月5日晚间,美股开盘后,苹果股价一度涨超1.4%。及至Vision Pro发布之后,当天收盘,苹果股价下跌0...

    手机互联 2023-06-06 21:32:45
  • GPT-4变笨引爆舆论!文本代码质量都下降,OpenAI刚刚回应了质疑

    GPT-4变笨引爆舆论!文本代码质量都下降,OpenAI刚刚回应了质疑

    梦晨 克雷西 发自 凹非寺量子位 | 公众号 QbitAI大模型天花板GPT-4,它是不是……变笨了?先是少数用户提出质疑,随后大量网友表示自己也注意到了,还贴出不少证据。有人反馈,把GPT-4的3小时25条对话额度一口气用完了,都没解决自己的代码问题。无奈切换到GPT-3.5,反倒解决了。总结下大家的反馈,最主要的几种表现有:以前GPT-4能写对的代码,现在满是Bug回答问题的深度和分析变少了响应速度比以前快了这就引起不少人怀疑,OpenAI是不是为了节省成本,开始偷工减料?两个月前GPT-4是世界上最伟大的写作助手,几周前它开始变得平庸。我怀疑他们削减了算力或者把它变得没那么智能。这就不免让人想起微软新必应“出道即巅峰”,后来惨遭“前额叶切除手术”能力变差的事情……网友们相互交流自己的遭遇后,“几周之前开始变差”,成了大家的共识。一场舆论风暴同时在Hacker News、Reddit和Twitter等技术社区形成。这下官方也坐不住了。OpenAI开发者推广大使Logan Kilpatrick,出面回复了一位网友的质疑:API 不会在没有我们通知您的情况下更改。那里的模型处于静止状态。不放心的网友继续追问确认“就是说GPT-4自从3月14日发布以来都是静态的对吧?”,也得到了Logan的肯定回答。“我注意到对于某些提示词表现不一致,只是由于大模型本身的不稳定性吗?”,也得到了“Yes”的回复。但是截至目前,针对网页版GPT-4是否被降级过的两条追问都没有得到回答,并且Logan在这段时间有发布别的内容。那么事情究竟如何,不如自己上手测试一波。对于网友普遍提到GPT-4写代码水平变差,我们做了个简单实验。实测GPT-4“炼丹”本领下降了吗?3月底,我们曾实验过让GPT-4“炼丹”,用Python写一个多层感知机来实现异或门。△ShareGPT截图,界面稍有不同让GPT-4改用numpy不用框架后,第一次给出的结果不对。在修改两次代码后,运行得到了正确结果。第一次修改隐藏神经元数量,第二次把激活函数从sigmoid修改成tanh。6月2日,我们再次尝试让GPT-4完成这个任务,但换成了中文提示词。这回GPT-4第一次就没有使用框架,但给的代码仍然不对。后续只修改一次就得到正确结果,而且换成了力大砖飞的思路,直接增加训练epoch数和学习率。回答的文字部分质量也未观察到明显下降,但响应速度感觉确实有变快。由于时间有限,我们只进行了这一个实验,且由于AI本身的随机性,也并不能否定网友的观察。最早4月19日就有人反馈我们在OpenAI官方Discord频道中搜索,发现从4月下旬开始,就不时有零星用户反馈GPT-4变差了。但这些反馈并未引发大范围讨论,也没有得到官方正式回应。5月31日,Hacker News和Twitter同天开始大量有网友讨论这个问题,成为整个事件的关键节点。HackerNews一位网友指出,在GPT-4的头像还是黑色的时候更强,现在紫色头像版在修改代码时会丢掉几行。在Twitter上较早提出这个问题的,是HyperWrite(一款基于GPT API开发的写作工具)的CEO,Matt Shumer。但这条推文却引发了许多网友的共鸣,OpenAI员工回复的推文也正是针对这条。不过这些回应并没让大家满意,反而讨论的范围越来越大。比如Reddit上一篇帖子提到,原来能回答代码问题的GPT-4,现在连哪些是代码哪些是问题都分不出来了。在其他网友的追问下,帖子作者对问题出现的过程进行了概述,还附上了和GPT的聊天记录。对于OpenAI声称模型从三月就没有改动过,公开层面确实没有相关记录。ChatGPT的更新日志中,分别在1月9日、1月30日、2月13日提到了对模型本身的更新,涉及改进事实准确性和数学能力等。但自从3月14日GPT-4发布之后就没提到模型更新了,只有网页APP功能调整和添加联网模式、插件模式、苹果APP等方面的变化。假设真如OpenAI所说,GPT-4模型本身的能力没有变化,那么这么多人都感觉它表现变差是怎么回事呢?很多人也给出了自己的猜想。第一种可能的原因是心理作用。Keras创始人François Chollet就表示,不是GPT的表现变差,而是大家度过了最初的惊喜期,对它的期待变高了。Hacker News上也有网友持相同观点,并补充到人们的关注点发生了改变,对GPT失误的敏感度更高了。抛开人们心理感受的差异,也有人怀疑API版本和网页版本不一定一致,但没什么实据。还有一种猜测是在启用插件的情况下,插件的额外提示词对要解决的问题来说可能算一种污染。△WebPilot插件中的额外提示词这位网友就表示,在他看来GPT表现变差正是从插件功能开始公测之后开始的。也有人向OpenAI员工询问是否模型本身没变,但推理参数是否有变化?量子位也曾偶然“拷问”出ChatGPT在iOS上的系统提示词与网页版并不一致。如果在手机端开启一个对话,它会知道自己在通过手机与你交互。会把回答控制在一到两句话,除非需要长的推理。不会使用表情包,除非你明确要求他使用。△不一定成功,大概率拒绝回答那么如果在网页版继续一个在iOS版开启的对话而没意识到,就可能观察到GPT-4回答变简单了。总之,GPT-4自发布以来到底有没有变笨,目前还是个未解之谜。但有一点可以确定:3月14日起大家上手玩到的GPT-4,从一开始就不如论文里的。与人类对齐让AI能力下降微软研究院发表的150多页刷屏论文《AGI的火花:GPT-4早期实验》中明确:他们早在GPT-4开发未完成时就得到了测试资格,并进行了长期测试。后来针对论文中很多惊艳例子,网友都不能成功用公开版GPT-4复现。目前学术界有个观点是,后来的RLHF训练虽然让GPT-4更与人类对齐——也就更听从人类指示和符合人类价值观——但也让它自身的推理等能力变差。论文作者之一、微软科学家张弋在中文播客节目《What’s Next|科技早知道》S7E11期中也提到:那个版本的模型,比现在外面大家都可以拿得到的GPT-4还要更强,强得非常非常多。举例来说,微软团队在论文中提到,他们每隔相同一段时间就让GPT-4使用LaTeX中的TikZ画一个独角兽来追踪GPT-4能力的变化。论文中展示的最后一个结果,画得已经相当完善。但论文一作Sebastien Bubeck后续在MIT发表演讲时透露了更多信息。后来当OpenAI开始关注安全问题的时候,后续版本在这个任务中变得越来越糟糕了。与人类对齐但并不降低AI自身能力上限的训练方法,也成了现在很多团队的研究方向,但还在起步阶段。除了专业研究团队之外,关心AI的网友们也在用自己的办法追踪着AI能力的变化。有人每天让GPT-4画一次独角兽,并在网站上公开记录。从4月12日开始,直到现在也还没看出来个独角兽的大致形态。当然网站作者表示,自己让GPT-4使用SVG格式画图,与论文中的TikZ格式不一样也有影响。并且4月画的与现在画的似乎只是一样差,也没看出来明显退步。最后来问问大家,你是GPT-4用户么?最近几周有感到GPT-4能力下降么?欢迎在评论区聊聊。Bubeck演讲:https://www...

    智能设备 2023-06-03 10:09:46
  • 中国工程院院士张平:要构建“许可Web3.0”,发展中国自主元宇宙

    中国工程院院士张平:要构建“许可Web3.0”,发展中国自主元宇宙

    5月30日消息,近日在2023年中关村论坛平行论坛“互联网3.0:未来互联网产业发展”上,中国工程院院士、北京邮电大学教授张平提出构建“许可Web3...

    业界动态 2023-05-30 11:32:54
  • 北航36岁博导上太空?没错,就刚刚,坐神舟十六号上去的!

    北航36岁博导上太空?没错,就刚刚,坐神舟十六号上去的!

    北京时间5月30日9时31分13.480秒,搭载着航天员景海鹏、朱杨柱、桂海潮的神舟十六号载人飞船,在酒泉卫星发射中心90工位,由长征二号F改进型遥十六运载火箭发射升空。飞船准确进入预定轨道,发射任务取得圆满成功!神舟十六号载人飞船升空瞬间 | 央视新闻随后,神舟十六号飞船的“6...

    智能设备 2023-05-30 10:53:05
  • 数学论证GPT-4不是随机鹦鹉:真如此的话整个宇宙都会坍缩

    数学论证GPT-4不是随机鹦鹉:真如此的话整个宇宙都会坍缩

    克雷西 发自 凹非寺量子位 | 公众号 QbitAI对于ChatGPT的工作原理,一个常见的解释是根据统计学规律预测下一个词。但最近一位叫Jacob Bayless的工程师用数学方法得出惊人结论:若是如此,所需的信息量足以让整个宇宙都坍塌成黑洞。这一数据量是50000^8000,根据贝肯斯坦上限(Bekenstein bound)原理,如果把这些信息分配到空间当中,所需要的信息密度已经远超宇宙能承受的最大值。而这仅仅是把数据存储起来的消耗,更不必说还要进行运算了。而ChatGPT与单纯统计预测的区别,可以做这样的类比:如果天文学家通过历史观测记录推算出月食的周期,这可以算是统计学。但当他们总结出牛顿万有引力定律的时候,就已经超越了统计学。什么是“随机鹦鹉”一个流传很广的说法,所谓大语言模型实际上相当于一个“随机鹦鹉”——与我们观察其输出时的情况相反,语言模型只是将其在庞大的训练数据中观察到的语素胡乱拼接在一起,根据概率生成文本,但不清楚文字背后的任何含义,就像一个随机的鹦鹉。出自论文On The Dangers of Stochastic Parrots: Can Language Models Be Too Big这对过去的语言模型,或许确实成立。比如曾经流行的n-gram算法。比如当我们在搜索引擎中进行搜索时,出现的联想词就能用此方法实现。具体来说,下面的三行文本中,第一行纯粹是随机生成,第二行考虑了单词在英语中整体的出现概率,第三行则考虑了单词在前一个词后面出现的概率。n = 0: RECEIVE FALL SURPRISED FRIDAY INGREDIENT…n = 1: REPRESENTING AND SPEEDILY IS AN GOOD…n = 2: THE CHARACTER OF THIS POINT IS THEREFORE…不难看出,随着n值的升高,文本越来越接近人类语言。而n-gram模型根本不需要掌握其中的语义或理解其中的抽象概念,就能生成像模像样的句子。据此有人猜想,GPT-4会不会也只是一种高级的n-gram呢?Bayless提出,GPT必须学会抽象才能有如今的效果,至少GPT-4肯定如此。GPT-4不只是“随机鹦鹉”要证明这一点,可以先看下棋机器人的例子。如果有一种下棋机器人,存储了巨量棋谱数据,对于每个棋局都能推荐下一步。那它就能通过“背谱法”模仿其他任何棋手或程序的下法比如Stockfish是最先进的国际象棋程序,如果仅通过对战而不看源码,是无法确定Stockfish是否在背谱。但实际上,包含所有情形和步骤的棋谱数据量可能超过2^154。而Stockfish的程序只占用了不到50MB的空间,根本不可能存下需要的所有棋谱。所以Stockfish肯定是通过更高级的方法来实现下棋的。人类语言的复杂度远超过棋类游戏,因此GPT的数据量更是同理。仅在是上一代的GPT-3的token字典中就有超过5万token。如果对每个词都逐一建立统计信息,n-gram模型中n值将高达8000。届时,需要存储的情景数量将达到50000^8000。正如文章开头所提到,这简直是天文数字,足以让整个宇宙坍缩。因此,GPT是“随机鹦鹉”的猜测在理论上得到了一定程度的批驳。“随机鹦鹉”达不到的高度仅在理论上进行说明是不充分的,因此研究人员还进行了两个实验,意图证明大模型在学习过程中已经抽象出了算法。第一个实验关于一道经典的农夫过河问题。一个农夫有一条船,和狼、羊、菜,农夫要把这3样东西运到河到另一边,农夫每次最多只能通过这个船运一样东西,要防止狼吃羊、羊吃白菜(即不能在没有农夫在的情况下同时在同一岸边),该怎么过?研究人员将这个问题中的农夫、船、河分别替换成地球人、虫洞和银河系。狼、羊和菜则分别换成火星人、金星人和月球人。替换的目的是因为互联网上不太可能出现类似语料,可以判断大语言模型是不是真的掌握了通用方法。如果GPT不是“随机鹦鹉”,那么它至少不会犯下只有“随机鹦鹉”才会犯的错误。GPT-4针对替换后的问题给出了正确的回答,GPT-3.5则没有。但它们并没有犯研究人员预想的“鹦鹉”错误——即在回答中出现狼、船、河等已被替换掉的词语。回答中使用的句子,也无法在互联网中被检索到。这些现象都证明了现在的大语言模型的生成方式已经超越了“概率预测”。第二个实验则是数字排序。如果让GPT学习数字排序,它们究竟是只会记住给出过的数字顺序,还是真的研究出排序算法呢?其实只要从GPT的输出当中就可以看出来了。假如从1-100中随机选择10个数字,并将其顺序打乱,将一共有这么多种情形:如果再考虑数字的重复出现,又或者数字的数量发生变化,根本不可能存储如此之多的情形。因此,只要GPT能够针对未知的排序问题给出正确的回答,便可以说明它们是真的研究出了排序算法。研究人员训练了一款特斯拉前AI总监Andrej Kaparthy发明的语言模型nanoGPT,专门让它做数字排序。结果显示,随着训练步数的增加,模型给出的数字顺序越来越完美。虽然在训练步数达到16万左右时突然出现了大量错误,但也很快得到了纠正。这说明这款模型并不是仅仅根据学习的素材对未知的数字进行排序,而是已经掌握了背后的方法。这个测试只是在一台笔记本电脑、算力非常有限的GPU上进行的。更不必说GPT-4了。参考链接:https://jbconsulting...

    智能设备 2023-05-27 16:02:19

站长搜索

http://www.adminso.com

Copyright @ 2007~2025 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持