为什么这么说呢?
2014年,巴拉巴拉等人在LSTM基础上,提出了“注意力机制”,解决了传统“序列到序列模型”的瓶颈问题。
这一创新,为2017年出现的Transformer架构,埋下伏笔。
而Transformer架构,正是后世大模型的核心架构!
同时,LSTM在语音识别、机器翻译等领域的成功应用,推动了深度学习框架的优化,以及GPU加速技术的成熟,为大模型时代奠定了工程基础!
提前布局LSTM,不仅可帮助极光,在当前建立技术壁垒,更能通过持续迭代演进,为后续切入AI大模型领域,积累宝贵的算法工程经验和数据资产!
而算法和AI,前世今生都是洛川最感兴趣的领域!
同时,如果能提前掌握SLTM和Transformer架构,还可推动国内GPU厂商的研发进度。
比如,入股一家或几家国产GPU厂商,向他们开放模型底层优化需求,推动专用定制芯片的合作研发,从而实现硬件-算法协同优化。
同时联合中芯国际等厂商,推动国产65nm/45nm工艺与GPU架构同步开发。
此时的中芯国际,已经具备生产65nm工艺的能力了。
45nm产品刚刚通过良率测试,还需要一段时间才能进入量产阶段。
这也是当前全球GPU厂商,普遍采用的工艺。
比如英伟达的8200和9800系列,采用的就是65nm工艺。
之后,通过在悠米社区、悠米视频、微博、云计算平台等高频场景,部署基于国产GPU的LSTM/Transformer模型,验证性能指标,数据持续反哺硬件研发。
其二,基于极光云计算平台,开发类似于英伟达CUDA的国产并行计算架构。
向开发者开放支持国产GPU的通用计算API,同时提供免费的开发工具链、教程等,建立开发者社区,构建生态系统。
跟悠米社区的开放平台战略十分类似。
CUDA是英伟达于06年推出的,并行计算平台与编程模型。
最初是给游戏开发者用的,但却意外打破了GPU的专用性。
使得GPU从单纯的图形渲染工具,转变为通用计算设备。
如AI训练、科学模拟等。
后世,大模型风潮爆发之后,CUDA意外成为了AI领域的“操作系统”。
全球90%的AI模拟训练,都是基于CUDA。
不过在此时,CUDA生态还很稚嫩,英伟达也还没意识到其中的潜力,还是很有机会追赶的。
这就是挂壁的优势~
同时,洛川还可通过开发重度3D游戏,强制要求游戏引擎深度适配国产GPU的方式,联合国内的GPU厂商,利用游戏场景的实时渲染需求,强行推动GPU厂商,优化显存带宽、光线追踪、动态频率调整等技术。
这几项游戏领域的技术,同样也都可应用在AI领域。
比如光线追踪技术,用在游戏里可提升画质,之后却被优化为AI模型的“稀疏计算”,可有效提升AI计算芯片的效率。
动态频率调整技术,用在游戏显卡里,是为了平衡性能与功耗;被移植到数据中心GPU上,却可降低AI训练成本。
而当GPU厂商技术达标之后,还可顺势推出“国产GPU游戏特供版”,通过游戏热度带动销量,反哺硬件研发。
英伟达的GPU,性能领先全球,有很大一部分原因是,初期做游戏显卡,为他们积累了大量的用户和市场份额。
这意味着,英伟达有更多的资金投入研发,更大的用户技术来测试和反馈,从而推动技术更快进步,与竞品拉开差距。
也因此,抢占消费级市场,还是很有必要的。
即便初期国产GPU的性能,大概率还是会落后于英伟达。
但某种程度上说,极光开发的这款游戏,就是为国产GPU量身定做的,想要实现局部超越,那还不是轻轻松松。
至于开发哪款游戏,洛川也已经想好了~