爽吃一顿火锅,三瓶啤酒下肚,洛川惬意的歪倒在沙发上,脚丫子戳着甜甜姐Q弹的小皮鼓,扯过平板,翻看“抖音”的筹备状况。
重点关注“极光联邦学习框架”的融合。
当前,国内短视频赛道,所有短视频产品,皆停留在“工具阶段”。
核心痛点便是——推荐不准、体验卡顿、隐私风险。
而“极光联邦学习框架”,恰好针对性解决了这三大问题!
首先,传统推荐算法,需“集中存储用户全量数据”,如浏览记录、地理位置、互动行为等等。
随着近两年,国内频频发生,互联网公司数据泄露事件,用户对“数据被收集”的敏感度显著提升。
国内数据监管,也呈现逐步收紧的趋势。
而联邦学习,“数据不动模型动”的逻辑,则彻底解决了这一问题!
用户的行为数据,仅在用户本地设备上处理,比如手机。
算法只将“优化后的模型参数”,加密上传至极光云端。
相当于只告诉云端,“用户喜欢美食”,而不是告诉云端,“用户具体看了哪条美食视频”。
这种模式,直接为抖音,扫清了上线前的合规障碍,并为极光提供了一把,攻击竞品的刀子~
其二,短视频的核心体验是,“滑动即得,刷个不停”。
用户每0.5秒,就可能划走一条视频。
若短视频响应延迟超过1秒,用户就有可能因“等待加载”,爽感逐步消退,无法形成上瘾性循环。
这对推荐响应速度及精准度的要求,远高于微信公众号推文、微博动态等传统信息流。
传统的集中式推荐算法,用户行为需先上传到云端,云端模型计算后,再返回推荐结果。
即便是极光,依托于极光云+骨干网+边缘节点,整个过程至少需要1.5秒上下。
至于其他互联网公司,大部分都还在依赖人工推荐呢~
少数如企鹅、阿狸、白度等巨头,信息流推荐虽能实现自动化,但响应延迟也基本都在分钟级。
且精准度堪忧。
白度曾因“推荐重复内容”被用户吐槽。
阿狸的动态推荐,甚至出现“推竞品广告”的乌龙。
笑死个人了~
跟极光的信息流推荐算法,完全不在一个level~
在微信、微博、悠米视频等平台,1秒的响应速度,已经很够用了。
但放到短视频的“快节奏”场景中,仍有些不够看。
而联邦学习,则可通过“本地训练+边缘计算”,大幅压缩响应延迟!
用户滑动视频时,手机可实时分析用户行为,比如“完播=喜欢”、“快划走=不喜欢”,并基于本地存储的“轻量化模型”,初步筛选推荐内容。
同时,加密后的模型参数,同步至离用户最近的极光边缘节点。
边缘节点结合区域用户偏好,对候选内容进行二次微调推荐顺序,最终实现“0.3秒内完成推荐响应”!
这使得极光版抖音实现,滑动瞬间,便完成了内容推荐并加载的极致体验!
“刷得越爽越想刷”的正循环就此形成~
而其他短视频平台,目前普遍仍处于,划一下等1~2秒加载的尴尬境地。
用户平均滑动间隔超3秒。
且内容推荐调整周期,普遍处于分钟级。