目前,通过骄阳200的算力密度提升、HBM内存带宽突破,以及节点通信的代际突破,团队已将分布式训练中的“通信-计算比例”,从初代的1:3,优化至1:6。
即通信时间占比从33%降至16.6%以下,训练成本大幅降低。
洛川感觉,再优化迭代一下,结合混合并行策略与流水优化,强行怼出一个百亿参数大模型也不是梦~
极光自研的分布式框架,支持“模型并行+数据并行”混合并行。
通过“芯片间高速通信协议+“云-芯协同”协议+高速总线”三层技术架构,连接256张“骄阳200”,形成5PetaFLOPS峰值算力集群。
理论上,可在15天内,完成百亿参数模型的初步训练。
数据层方面,基于庞大的极光社交生态,他们天然便掌握“高纯度语料池”。
悠米社区、极光微博、微信公众号等极光系平台,日均产生20亿+UGC内容。
经三位风控模型过滤后,形成的“纯净文本库”,包含新闻、专业文章、用户讨论等等,总量约40TB。
并且,极光风控系统重的内容指纹哈希库,已提前对跨平台重复内容去重,有效确保了训练数据多样性。
再结合洛先知,此前为10亿参数级模型,亲自开发的“语义去噪模型”,可自动识别并过滤抵制内容,保留3.2亿条高质量长文本,构成核心训练集。
至于算法层,没人比洛先知更懂AI大模型了~
当前,骄阳200已通过所有前期技术验证,以及软件生态适配,可正式进行量产了。
预留4~6个月时间,完成集群搭建、数据清洗、算法调优等基建工作。
预计今年第三季度,极光的首个百亿参数模型即可落地。
届时,极光系平台,将再次迎来质变!
比如,将其接入极光微博和微信公众号,三维风控模型的“事中监控环节”,进一步增强对长内容的语义级风险识别。
大幅提升变种谣言拦截率,降低风险内容漏检率。
又比如,小悠的“智商”及“反应速度”,也将再次实现智能跃迁,可完成更复杂的任务。
极光系的信息流推送、场景化广告系统,也将再次发生蜕变。
从“千人千面”,进化为“知你所想”。
当然也少不了洛某人的“金疙瘩”,微光基金。
总之,百亿参数模型的泛化能力,支持其快速适配新业务。
让极光系和星光系的每个产品,都拥有更强的“思考”能力。
而各产品产生的海量实时数据,也将持续回流至模型,形成“数据训练-应用优化-数据再沉淀”的闭环。
每季度迭代一次模型参数,使其对用户行为的理解精度,每半年提升15%以上,持续巩固“数据壁垒+技术代差+迭代速度”的三重优势!
在那场尚未正式开启的AI算力竞赛中,极光已获得5年以上的技术领先身位。
而随着时间的拉长,这种代差级优势,还将继续呈指数级膨胀!
现阶段,AI大模型仍处于,深度学习技术突破的前夜,核心进展集中于计算机视觉领域。
且模型规模与训练能力,严重受限于硬件与算法。
别说洛川之前搞出的10亿参数模型了,就连千万级模型,也没几个能玩明白的。
而等同行们跌跌撞撞追上来的时候,极光应该已经在朝着万亿级大模型使劲了~
不吹牛B,极光能如此顺利的大踏步前进,洛先知至少占六成功劳~
扯了大半天,散会后,洛川又跟王建教授聊了LC市大脑和工业大脑的事儿。
商议出一套大致方案,便再次当起了甩手掌柜,出门提溜上小女友,一块吃旋转小火锅去了。
今天真特么是个好日子啊~