时间如白驹过隙,转眼已是11月中旬。
距离徐辰那篇《LogicIsAlsoYouNeed》在arXiv上发表,已经过去了两个多月。
而华国的秘密布局,更是已经悄然推进了三个多月。
这三个月里,虽然表面上风平浪静,但在半导体和AI的核心圈层,早已是暗流涌动。
……
十一月中旬,深圳,南山。
这间位于地下二层的恒温实验室里,这里是海丝半导体的绝密测试区。
总工程师何庭波站在单向玻璃后,并没有像往常那样盯着满屏的数据,而是闭着眼睛,似乎在听着什麽。
实验室里摆着两台测试机柜。
左边那台,风扇正在发出喷气式飞机起飞般的啸叫,红色的过热警报灯疯狂闪烁。里面插着的,是目前市面上最顶级的算力怪兽——英伟达H100。
右边那台,却安静得像是一块石头。只有机箱面板上那颗绿色的指示灯,以一种极其缓慢丶悠闲的节奏呼吸着。里面躺着的,是刚刚流片回来的工程样片——「升腾LPU-Alpha」。
「跑完了。」
操作员的声音打破了死寂。
何庭波睁开眼:「报数据。」
「任务:SLRM架构下的千万级逻辑门推演。」
「H100组:耗时4分12秒,峰值功耗700W,核心温度85度。GPU利用率……只有12%。」操作员看着数据,咽了口唾沫,「因为大量的逻辑跳转导致CUDA核心一直在等待数据,显存带宽都快被撑爆了,算力却发挥不出来。」
「LPU组呢?」
「耗时……58秒。」
操作员的声音有些颤抖,仿佛不相信自己的眼睛。
「峰值功耗45W,核心温度……室温。」
何庭波没有说话,只是走到玻璃前,看着那台安静的机柜。
4分12秒对58秒。
700W对45W。
4nm先进位程对14nm成熟工艺。
这是一场不对称的屠杀。
没有欢呼,没有掌声。在场的工程师们只是面面相觑,眼神中流露出的不是狂喜,而是一种近乎敬畏的恐惧。
他们比谁都清楚这意味着什麽。
当英伟达还在用「蛮力」去模拟逻辑的时候,徐辰设计的架构,已经让晶片学会了「思考」。
「封存数据。」何庭波的声音很轻,却在空旷的实验室里回荡,「把这台机器的代号,从『备胎』改成……『破壁者』。」
……
虽然核心数据被严密封锁,但在这个信息爆炸的时代,总有一些风声会从墙缝里漏出来。
B站,科技区。
一个名为「极湾Geekerwan」的UP主,发布了一条名为《有些事不能细说,但国产晶片可能真的要变天了》的视频。
视频里,UP主云非并没有像往常那样拿着显卡跑分,而是坐在镜头前,神色有些神秘,甚至带着点压抑不住的兴奋。
「兄弟们,最近我去了趟深圳,本来是想去华强北淘点电子垃圾的,结果被几个『菊厂』的朋友拉去喝茶。签了保密协议,具体的参数我一个字都不能说,说了号就没了。」
「但我可以给你们打个比方。」
云非拿起桌上的一个魔方,又拿起一把锤子。
「以前我们搞AI,就像是用锤子砸魔方。只要力气够大,锤子够硬,总能把魔方砸开。」
「这也是英伟达一直在做的事,他们造出了世界上最硬的锤子。」
「但是这次……」
放下了锤子,轻轻转动了一下魔方。
「我看到了一种全新的解法。它不需要多大的力气,也不需要多硬的锤子。它只是……找到了那个公式。」
「咔哒。」
魔方复原。
「那种丝滑感,那种降维打击的感觉……真的,我当时在现场,鸡皮疙瘩都起来了。」
「我只能透露一点:这玩意儿不挑食。哪怕是咱们国内那种成熟工艺,也能跑得飞起。」
「时间呢,我不敢保证啊,我估计最快可能半年,慢一点一年左右,应该就能看到商业化产品问世了。当然,都是我猜测啊,猜不准我不负责。」
弹幕瞬间炸了。
【谜语人滚出哥谭!】
【卧槽?真的假的?云飞从来不吹牛逼的啊。】
【成熟工艺?难道是说晶片制程麽?】
【传说中的存算一体?还是光子晶片?】
【别猜了,前几天我看新闻,科技部批了个『新一代认知智能计算架构』的专项,好像就是以SLRM模型为原型开发的。】
评论区里,除了兴奋的吃瓜群众,很快就涌现出了一批画风诡异的帐号。
「笑死,又在吹牛逼了。之前吹光刻机,现在吹LPU,能不能务实一点?」
「承认差距有那麽难吗?人家英伟达几万人的团队搞了几十年,你换个名字就能弯道超车?做梦呢?」
「又是『沸腾体』,能不能别整天遥遥领先了,看着尴尬。」
这些帐号ID大多是一串乱码或者新注册的小号,言辞激烈,逻辑统一,显然是有组织的水军。
他们试图用冷嘲热讽,把这股刚刚燃起的希望之火给浇灭。
毕竟,对于某些势力来说,中国AI的崛起,是他们绝对不愿意看到的噩梦。
……
除了硬体圈的传闻,软体圈也不甘寂寞。
知乎上,一个名为「AI观察者」的大V,也发了一篇长文爆料。
《国产大模型的新赛道?通义丶字节丶月之暗面都在秘密测试新架构!》
文章里写道:
「据内部人士透露,国内几家头部AI大厂,最近都在秘密测试一种非Transformer架构的新模型。据说这种模型在逻辑推理和长文本处理上有着惊人的表现,完全没有『幻觉』问题。」
「该模型据悉仍在非常早期的阶段,但是内部负责人表示在某些小数据集上训练后表现非常好。」
「工程师团队目前据说处在软体等硬体的状况下,因为缺少匹配的硬体,目前还没有办法跑大参数的模型,但是据说这个过程很快会有改进。」
「目前团队的重点还是提效和降本上,其中某个团队的运行成本已经降低了30%,而且还有很大的降本空间。」
「我有幸体验了一个内部测试版的Demo。说实话,生成速度很慢,但是回答的内容非常清晰,几乎没看出有什麽幻觉类的问题。」
「不过目前测试只能限定在一些小的知识范围内,应该也和小模型demo有关。」
「虽然目前的综合能力可能还打不过GPT-4,甚至连GPT-3.5都够呛。毕竟人家发展了八年,咱们这个新架构才搞了几个月,数据量和训练时长都还不够。」
「但这就像是一个刚出生的天才婴儿,虽然现在还不会跑,但你能看到他眼里的光。这是一种全新的可能性!」
文章下面,评论区也是两极分化。
「真的假的?逻辑推理无幻觉?这可是LLM的死穴啊!」
「半成品也好啊!只要路子对了,早晚能追上!」
「得了吧,又是PPT造车。连个能用的产品都没有,就敢吹『新赛道』?等拿出来再说吧。」
「估计又是骗经费的项目。Transformer已经是公认的最优解了,非要另起炉灶,这不是瞎折腾吗?」
……
无论是硬体圈的LPU传闻,还是软体圈的新模型爆料,都像是在平静的湖面上投下了一颗颗石子。
虽然水军在疯狂地泼冷水,虽然公众依然半信半疑,但那种「山雨欲来风满楼」的气息,已经越来越浓烈。
所有人都隐隐感觉到,一场巨大的变革,正在酝酿之中。