嵌入式存储器如何协同SoC 助力AI Mobile高效运转

今年以来,以人工智能为核心的AI Mobile,正开始成为手机行业的“主角”。越来越多的手机厂商正在研发或已推出各种AI Mobile,甚至部分研究机构认为,AI Mobile或将成为手机市场的新增长点,并掀起新一轮换机潮。

AI Mobile,简单来说,是支持AI功能的新一代智能手机。和常规手机相比,AI Mobile的SoC是关键。

异构集成 SoC是关键

当下主流的AI Mobile SoC突出特性采用CPU、GPU及NPU异构集成的架构形态,具备更强的算力,能够处理AI相关计算和推理任务。

CPU和GPU属于通用处理器,拥有很强的兼容性和灵活性。一方面能够高效处理手机常规任务,保证手机基础功能的流畅运转,例如操作系统、游戏、拍照、娱乐等;另一方面还能和NPU相串联,针对AI相关的应用和场景,提供更佳的AI体验。

NPU,全称Neural network Processing Unit,即神经网络处理单元,其突出特性是在电路层模拟人类神经元和突触,用深度学习指令集直接处理大规模的神经元和突触,一条指令完成一组神经元的处理。

相较于CPU和GPU的冯诺依曼结构,NPU通过突触权重实现存储和计算一体化,进行神经网络计算的效率也远超GPU。目前,NPU已被大规模应用于包括AI Mobile、AI PC在内众多人工智能、机器学习等领域。

业界通过异构集成技术,将CPU、GPU及NPU等不同用途芯片融合在一颗SoC上,最终促成AI Mobile的诞生。

当然除了SoC,在AI Mobile中数据存储也是执行AI计算和推理任务,实现AI功能,协同SoC打造AI体验的关键一环。

高性能特性 协同SoC加速AI功能实现

从底层设计上看,AI Mobile因不断丰富和完善的AI功能,会涉及更多复杂且高频的计算、推理和生成等任务指令,需要嵌入式存储器提供更高性能、更大带宽,高效迅速的将SoC发出的相关数据和指令传输到其他系统硬件,进而推进AI功能的实现,为前端的用户提供响应更及时的AI体验;

从具体应用上看,AI Mobile重要功能设计便是云侧和端侧的混合大模型,云侧大模型需要实时不间断地和AI Mobile进行数据的同步,指令的对接,科学合理的进行算力的调配,算法的更新,这都对嵌入式存储器执行SoC相关指令的响应速度,传输效率提出更高挑战;至于端侧大模型,在模型训练的各个阶段,包括数据的收集、筛选、分析和归一等步骤中,无一离得开高性能嵌入式存储器提供的高带宽、高读写速度。

低功耗设计 提升整体续航 助力AI Mobile性能不打折

随着AI功能的加入,需要处理的指令和传输的数据都在呈指数级增长。同时,鉴于AI Mobile和云端模型保持数据的实时传输,会更加频繁的调动嵌入式存储器进行数据的读取和写入。由此,包括SoC在内的各种硬件,其功耗也会肉眼可见的升高。

嵌入式存储器,作为AI Mobile的重要组成,更低功耗的设计,在处理同等负载的任务时,能够节省功耗,从存储端提升AI Mobile的整体续航。

同时,更低功耗设计,也将减少存储器工作时的发热量,最大程度的拖延甚至避免存储温度墙的出现,始终维持更高的性能表现,助力AI Mobile性能不打折。

更大容量为AI Mobile功能实现和拓展保驾护航

AI Mobile同样需要嵌入式存储器提供更大容量。

一方面,AI Mobile内置端侧大模型,需要海量空间,存储用于训练大模型的各种“养料”,包括语音、文字、视频等各种数据;同时,随着端侧大模型的不断丰富和迭代,需要存储的参数和数据量也会不断激增,对存储器提出了更高容量需求。

另一方面,在应用端,AI Mobile端侧和云侧大模型的完善,将刺激和生成许多带有AI功能的且丰富多彩的应用,例如私人助理功能,生成式AI助手可根据用户喜好,定制推送新闻、视频、音乐等内容;智能翻译功能,借助AI算法,在用户进行语音通话的同时,实时进行语音的翻译,以及语音转文字的记录等功能。而这些功能的实现,不仅需要SoC的算法支撑,同时还需要大容量嵌入式存储器,存储和承载这些应用本体及生成的各种缓存文件。

面对着AI手机的浪潮,长江存储推出一系列嵌入式存储器,不断满足AI手机的存储需求。

存储.jpg

长江存储UC033是基于晶栈®Xtacking® 3.0技术的TLC三维闪存芯片打造的UFS3.1嵌入式存储产品,拥有高性能、大容量、低延迟等特性,最大顺序读取速度达2100MB/s,产品设计128GB, 256GB,512GB三个容量,能够满足AI时代,手机等智能终端对嵌入式存储器全面的产品需求。

注:部分技术解释源于网络

文章来源:长江存储商用存储方案

Baidu
map