百度文心大模型 4.0 爆料:万卡训练史上最大参数,最快下周见
CTOnews.com 10 月 9 日消息,昨天,财联社爆料称百度的文心大模型 4.0 正在加紧训练,已经接近可发布状态。今天,CTOnews.com也扒到了更多关于文心 4.0 的消息,涉及了底层架构、基础设施、训练数据集、成本等关键信息。
先说核心结论:
1、昨天的爆料基本属实。目前了解到,文心大模型 4.0 实际上已经在小流量测试。
2、文心 4.0 参数量大于所有已公开发布参数的 LLM,也是国内首次使用万卡集群训练的大模型。
3、推理成本相比文心 3.5 增加很多,据传大概是 8-10 倍。(大模型真的很费钱)
接下来我们看看爆料的细节。
万卡集群训练的史上最大参数模型?
根据CTOnews.com拿到的消息,文心大模型 4.0 的参数规模要大于目前所有公开发布参数的 LLM,这意味着文心大模型 4.0 的参数规模预计能突破万亿级别。
单看这个参数量,很多人会觉得还好,毕竟根据目前揭秘的信息,GPT-4 的参数量已经在 1.8 万亿左右。但爆料人进一步表示,文心大模型 4.0 仍然是一个单一模型,并没有采用 GPT 和很多其他大语言模型使用的混合专家模型(MoE)。
之前"天才黑客"乔治・霍兹就爆料,GPT-4 之所以采用混合模型,是因为无法让模型的参数规模超过 2200 亿。OpenAI 希望模型变得更好,但如果仅仅是训练时间更长,效果已经递减。
所以,如果百度能实现单一模型上的突破,模型能力是否也会有明显的提升,这个只能等真正发布之后来看了。
这么大参数量的模型,对算力要求注定不会小。现在的消息是,文心 4.0 是在万卡 AI 集群上训练出来的,应该也算上是国内首次使用万卡规模集群进行训练的大语言模型。
万卡集群什么概念,国内目前只有华为、阿里透露已建成万卡 AI 集群,但我们都没看到基于它推出的具体模型。
这说明,万卡集群就不容易建了,如果用起来发挥最大化作用则更难了。据分析正是因为飞桨的深度联合,才能基于万卡集群训练起如此规模的模型。
成本激增,已低调面向公众小流量测试
不仅训练成本在增加,文心 4.0 的推理成本也被爆比 3.5 增加很多,CTOnews.com还没拿到具体每千 token 的推理成本,但据传大概是此前的 8-10 倍,这还是在高利用率(MFU)的情况下。如果利用率更低,估计成本还会继续增加。
最后,根据内部员工的说法,百度实际上已经开始秘密小流量测试文心大模型 4.0,有小部分文心一言用户在使用的已经是最新的模型版本,最快下周就会官方公布。
不少人认为这个说法比较靠谱,也可以从最近技术社区上的一些爆料上看出一点端倪。说不定,你现在在文心一言上提问,用的就是文心大模型 4.0 了。不知道生成的结果是否能跟 GPT-4 一战。
CTOnews.com再次强调,以上并非官方确认的信息,大家自行判断其准确性。
相关文章
- 25 周年纪念作,情怀拉满但诚意欠缺:《勇者斗恶龙 怪物仙境 3》
- 联想拯救者 Y700 2023 平板推送 ZUI 15.0.723 系统灰度测试:新增“USB 网络共享”,优化底部小白条
- Streacom 推出 SG10 高端被动散热机箱:可解热 600W,1300 美元
- 3D 角色扮演策略游戏《少女前线 2:追放》公测开启,安卓、iOS、PC 多端互通
- 新能源车市:价格战开局,价值战结束
- 雪天这样拍,照片更为味道
- Cybertruck:未来物种重新定义汽车
- 2022 年我国未成年网民规模突破 1.93 亿,普及率达 97.2%
- 上映 7 天,《名侦探柯南:黑铁的鱼影》内地票房破亿、豆瓣 6.6 分
- 小岛工作室推出《死亡搁浅》联名手机手柄,预计明年发售