午后的阳光慵懒地洒在晚霞山庄操盘大厅的休息区。
落地窗外的景色被镀上了一层金黄。
休息区内,静谧中透着几分闲适。
叶回舟、信息部的杨闲以及小胖子王涛围坐在一张木质圆桌旁。
桌上,三杯咖啡正冒着袅袅热气。
咖啡的香气在空气中弥漫开来,为这略显严肃的氛围添了几分温馨。
杨闲刚看完马斯克G3的发布会,此刻满脸失望。
他轻轻将手中的平板电脑放在桌上,率先打破了沉默。
“今天看了马斯克G3的发布会,实在是太让人失望了。
这号称地表最强的AI大模型,依我看,完全是在走弯路。”
叶回舟正端起咖啡杯,轻抿一口。
听到杨闲的话,眼中闪过一丝好奇。
他放下杯子,问道:“怎么个走弯路法?我还没仔细了解呢,你给详细说说。”
杨闲轻叹一口气,身子微微前倾,缓缓说道:“你瞧,G3发布会给出的数据看似耀眼得很。
在数学科学和编程的基准测试上,确实超越了不少主流模型。
像GPT4O、cloud3.5、deptV3这些,在它面前都得甘拜下风。
而且在推理能力方面,G3.ingta和G3min reasoning的跑分也超过了同等级的其他模型。
比如说deeptR1还有openAI的O3mini。”
小胖子王涛正百无聊赖地转着手中的铅笔,听到这儿,不禁皱起眉头,满脸疑惑。
“听起来很厉害呀,那还有什么可失望的?”
杨闲无奈地摇了摇头,用手指轻轻敲着桌面,解释道:“问题就藏在这些看似厉害的数据背后。
你看,数据差距其实很小,GPT4O差不多1400分,G3也就1400分左右。
只差20多分,也就1%多一点的差距。
deepR1是1360分,和G3的差距也就2%左右。
这种微小差距可能只是跑分的小误差,或者仅仅是记忆能力的体现。
况且,为了这点差距,它训练用了10万克的英伟达H100的GPU。
累计训电时长达2亿GPU小时,就为了这微不足道的差距,付出如此巨大的代价,简直是资源的极大浪费。”
叶回舟听着,陷入了思考。
他轻轻转动着咖啡杯,缓缓说道:“确实,如此庞大的算力投入,感觉有点得不偿失。
但你觉得这就能说明马斯克方向错了吗?”
杨闲推了推眼镜,身子往后靠了靠,接着说:“我觉得可能性很大。
他过度依赖跑分,要知道跑分这东西是可以作弊来营造优势的。
很多模型看着跑分很高,但实际使用起来却不尽人意,就像之前的glock2。
G3耗费这么多资源,才比其他模型多那么一点分数,就好比用大量资源去换取微不足道的优势。
再看看人类大脑,人脑功率10到30瓦,却能展现出强大的能力,关键就在于算法。
像李菲菲团队用50美金复现deep seek,就证明了一个模型强大与否,核心在于思考和推理能力,而非规模。”
小胖子王涛若有所思,停下手中转动的铅笔,摸着下巴说:“我明白你的意思了。
这就好比我们学习知识,要是只靠死记硬背,考试能应付,但实际应用就不行。
AI要是只依赖大量记忆数据,没有真正的推理和思考能力,也算不上真正的智能。”
叶回舟点头表示认同。
他拿起勺子,轻轻搅拌着咖啡,说道:“没错,所以像deep使用的MOE混合专家模式,就很类似大脑节能的方法。
而且GPT系列模型,从GPT3到GPT4,参数不断增大。
可从人类发展角度看,人脑并没有因参数显著增大而变得更聪明。”
杨闲又补充道:“再看AI发展的总体趋势,现在的AI就像温水里的青蛙。
就拿欧洲来说,德国和法国这样的强国,各有心思。
德国是经济强国,法国是军事强国,可即便组合起来,也未必能称霸欧洲。
面对美国政策,欧洲反应混乱,美国态度的变化,才让欧洲看清美国本质。”
小胖子王涛一脸好奇,眼睛睁得大大的:“欧洲现在的情况和AI有什么联系呢?”
叶回舟耐心地解释道:“在科技发展方面,欧洲也存在类似问题。
欧洲很多国家盲目追随美国政策,比如在经济领域对一些国家加关税,毫无自己的主见。
在AI发展上,欧洲没有形成强大统一的发展战略,还不断消耗资源追随美国行动。
这就如同AI走入歧途。
我们必须思考,如何在科技发展中找准自己的方向,避免盲目跟风或过度追求表面数据。”
杨闲点头称是。
他端起咖啡,却没喝,只是看着杯中的液体说道:“是的。
在AI发展上,我们应回归本质,像人类大脑一样重视算法和真正的智能产生机制。
而非单纯追求高参数、大量数据和巨额算力投入。”
说着,杨闲的手机突然震动了一下。
他低头看了看,扶了扶眼镜,看着手机群说道:“有朋友留言说,清华大学那边有进展。
国内有团队正在做福建运算相关的通用平台研究。
视频发布不到十几个小时,就有人爆料青北大学相关团队公布了相关论文。
利用福建运算逻辑,通过显卡底层增强,让4090这种消费级显卡能完全运行R一满血大模型。
而且速度不比专业的A100算卡慢。
很多朋友问这是怎么回事,原理其实很简单。
显卡原本是提升显示效果的,通过GPU提供格栅化运算和浮点运算来实现成像。
以前超级计算用计算机、服务器、大型机甚至巨型机。
但到了AI大模型时代,人们发现GPU计算速度最快,不过它并非最适合。
于是英伟达推出了CUDA平台,可理解为在显卡上进行计算的操作系统。
必须在这个平台上才能调用显卡算力,实现数据进入大模型训练等工作。
但它的工作原理也是调用底层芯片的浮点运算能力。
有没有更好的办法呢?当然有。
清华大学的论文解析了整个4090芯片底层,通过二进制语言编写运算代码,支持在上面部署大模型,提升了推理能力。