白驹过隙。
时间悠悠流入三月份。
春不暖,花未开,但好在寒风已不算凛冽。
“去吧宝子~”
QP区微光湖学校门口,洛川给老闺女戴上羽绒服帽子,理了理红领巾,语重心长的嘱咐道。
“想上就上,不想上就睡觉,要是学累了,就给老爸打电话,老爸来接你哈~”
“知道了爸爸。”洛思锦揽住老父亲的脖颈,被对方抱下车,顺势在他脸颊上吧唧一口。
望着老闺女背着小书包,颠儿颠儿跑进学校,洛川幽幽叹了一口气。
“差不多得了哈。”车上,宋锦好笑的看着男友。
“上个学而已,你姑娘还没怎么样呢,你自己搁这儿要死要活的~”
洛川回头白了女友一眼,都不稀得搭理她,钻进主驾,一脚油门蹬了出去。
宋锦也没怎么在意,望着车窗外,宛如景区般秀丽的校园,莫名有些感叹。
“现在这些小孩可真幸福,你说咱小时候,哪有这条件啊。”
“姐姐,您都快40了~”洛川转头瞄了一眼,随口打趣了一嘴,毫无意外挨了女友一拳。
这座微光湖小学,是极光与复旦附中,于14年合作创办。
核心目的是,为公司员工的孩子,提供从学前班至12年级的国际教育。
没办法。
现如今的昆仑智谷,连带周边的星光超级工厂、配套研发中心、供应链与生态链厂商,总员工规模,奔着20万去了。
QP区原有的教育资源,根本就不足以承载这么多外来人口,他们只能自己来。
不过大厂跨界办学,也早就不是什么新鲜事儿了。
比如华威便携手水木附中,在松山湖总部附近,创办了清澜山学校。
企鹅正在建设的“企鹅岛”总部,也搞了一所“明湾学校”。
听说收费还挺贵。
小学21.96万/年,中学24.12万/年。
直逼深市最顶尖的国际学校。
公司赚钱公司花,这怎么又不算是一种“内循环”呢~
极光倒是没搞这死出儿。
微光湖学校的收费标准,全面对标公立学校,每年少说也得赔个大几千万上亿进去。
毛毛雨而已~
去年,极光与抖音科技并表后,全年总营收,高达1.43万亿!
稳居国内民营企业500强榜首!
虽受限于高昂的研发支出,以及极光星网的重资产布局、Tik Tok全球化推广与运营成本三重掣肘,极光净利率,显著低于各家头部大厂。
仅有20.3%。
但依托于爆炸式增长的营收集数,全年净利润,仍高达2903.9亿+!
微光湖学校每年赔的这点钱,也就极光两三个小时的净利润而已~
不到十分钟的路程,拌了几句嘴就到家了。
“怎么样,没哭吧?”正窝在沙发上敲代码的陈诗瑶,抬眸瞥了两人一眼,随口问道。
“哭?笑得可开心了,她老父亲倒是差点哭出来~”宋锦懒洋洋的歪倒在沙发上,打趣道。
一旁,宫甜甜瞬间想到了那副画面,不由勾起嘴角,瞅了洛老板一眼,又抬脚戳了戳,正半趴在茶几上,猛炫水果丁的老闺女的小屁股。
“你看姐姐多厉害,明天咱也上学去哈~”
“窝不去!”闻言,小丫头立马应激,瘪着小嘴巴,冲老母亲大喊一声,便噔噔噔扑进老爸怀中。
洛川好笑的戳了戳,闺女白净的小脑门,“不想去咱就不去嗷,等明年再说的~”
“嗯嗯!”小丫头赶忙连连点头,在老爸脸上吧唧就是两口。
“你就惯着她吧。”宫甜甜没好气的白了爷俩儿一眼。
“少上一年幼儿园而已~”洛川没怎么在意,“反正去了也是玩,我在家就教了~”
不同于性格开朗皮实的姐姐,二宝的性子,明显要更加敏感怯生。
送去幼儿园不到半天,就哭成了小泪人,怎么哄都哄不好,被他接了回来,再之后就死活也不去了。
不过也无所谓就是了。
谁让她老子有钱呢~
“你爱咋咋滴吧。”宫甜甜白了他一眼,也懒得再管。
跟小闺女亲热一会儿,洛川煮上茶,便扯过笔记本,处理起今日份的文件。
第一份文件,就让他不由眼睛一亮。
时至今日,“小悠”已上线一个月有余,首月数据也随之正式出炉。
整体而言,可以用四个字形容。
行业奇迹!
依托于性能与生态上的碾压级优势,短短一个月时间,“小悠”的国内月活量,便指数性暴涨至3.65亿+!
全球月活量,更是一举突破6亿大关!
高达惊人的6.18亿+!
日活量同样高达2.35亿+!
这一史诗级增速,堪称前无古人,后也很难有来者!
对比而言,上线近4个月的ChatGPT,总用户规模,也不过才7.27亿。
可想而知,“小悠”的扩张速度有多恐怖!
核心原因在于,除了独立APP之外,团队还将其内置到了微信、抖音、Tik Tok等极光全系应用之中。
这使得,“小悠”可以轻松触达,国内十亿级用户,全球20亿+用户!
形成“下载即能用,无处不在线”的全域触达优势!
反观ChatGPT,虽同样被内置到了微软系应用之中,但微软生态以办公、搜索场景为主,缺乏社交、短视频、本地生活等高频场景。
用户触达效率,也就极光生态的一根~
且跨应用数据严重割裂,无法形成闭环体验。
此外,性能上的碾压级优势,同样也是至关重要的一点。
在过去的一个月里,多家互联网巨头,先后发布了自家大模型产品。
比如谷歌,在ChatGPT爆火后,面临微软必应AI的直接竞争,被迫加速推出对标产品,“Bard”。
然而,由于研发周期不足,其性能拉胯得一批。
上下文窗口仅支持4k,仅为OpenAI刚发布的GPT-4的1/2~1/8、极光大模型的1/25。
幻觉率更是高达20%,高于GTP-4的8%~12%,以及极光大模型的4.5%~4.8%。
“Bard”发布会,更是堪称车祸现场,失误频发,直接导致谷歌市值暴跌7.68%,一夜蒸发1056亿美元。
微光基金猛猛掏了一波~
此外,脸书也于今年2月份,发布了LLaMA模型,虽没什么太大失误,但也没什么惊喜,性能远逊于GPT-4。
推理能力仅相当于,GPT-3.5的60%,复杂数学题,正确率不足50%,且仅支持文本交互,缺乏多模态能力。
上线后,市场关注度持续走低,月活不足5000万。
至于国内,百度抢先发布了“闻言一心”。
但由于发布时仍处于内测阶段,功能不完善,老李并未进行现场实时演示。
所有功能,均为提前录制的Demo,引发“摆拍”质疑,股价当日暴跌近10%。
紧随其后,阿狸发布“通义千问”,聚焦企业级服务。
企鹅发布“混元大模型”,侧重社交与内容生成。
字节发布“云雀”,采用轻量化设计,适配短视频场景。
而上述模型的通病是,依赖Transformer架构与开源训练框架,缺乏自主创新,仅在一些边边角角修修补补。
导致模型推理能力薄弱,复杂数学问题,正确率仅50%~60%。
幻觉率更是普遍高达15%~25%,多模态融合不足。
加之无法获取,足量高性能芯片与高质量数据集,训练效率普遍低下。
别说跟极光大模型比了,就是跟GPT-3.5相比,也存在不小的技术代差。
不过也正是鉴于友商们糟糕的表现,“小悠”的全球扩张之路,几乎没有任何阻碍~
包括OpenAI紧急发布的GPT-4,性能也远逊于极光大模型。
比如,其长文本处理能力,最多支持32k,不到极光大模型的1/3,超过则极易出现信息丢失问题。
又比如,GPT-4的推理能力,依赖全参数激活。
随着模型参数量突破万亿级,其训练成本超10亿美元,推理成本同样呈指数级暴增。
为GPT-3.5的3倍!
极光大模型的30~50倍!
还有数据时效性。
这也是当前一众大模型,极为致命的一项短板。
Transformer架构,采用的是“静态预训练+知识冻结”模式,无法获取实时信息,只能依赖第三方插件补充。
插件调用链路长、效率低不说,成本还巨高。
更严重的是,由于实时数据,与模型原生知识融合度不足,还极易产生矛盾与幻觉,导致幻觉率失控。
而极光大模型,则选择了一条全新的技术路径,从根源上解决了数据时效性问题。
即——动态知识图谱与实时数据流原生融合!
其实时知识引擎中,内置的“动态知识图谱”,采用了“增量学习+知识蒸馏”混合模式。
每天仅需更新0.1%~0.5%的参数,即可融入全球数十亿条最新数据!
支持“分钟级”增量更新!
时效性较Transformer的“月级”更新周期,提升10000倍+!
且算力成本,仅为Transformer全量重训的1/1000!
其次,模型中还内置了“实时数据处理子模块”。
当“小悠”识别到,用户查询中的“实时信息需求”时,便会自动激活该模块,直连极光实时数据中台。
获取最新数据后,与模型原生知识融合推理。
实时数据调用响应时间<1秒!