CS SD NAND 在AI领域的应用和注意事项
随着ChatGPT,DeepSeek等AI模型的火热,AI的应用硬件也发展迅速。很多厂商针对特定市场推出了AI产品。在研发这些产品的时候,有不少客户选择了CS SD NAND作为AI产品的存储芯片。今天跟大家聊聊这个,以及在实际应用有哪些注意事项。
1,为什么会选择CS SD NAND?
首先是容量适中,覆盖多种需求,传统 NOR Flash 容量较小,而 eMMC 容量又偏大且成本较高。相比之下,CS SD NAND 提供了从 128MB 到 8GB 的灵活容量选择(未来还将推出 32GB 和 64GB 大容量版本),正好适配 AI 产品对存储操作系统、程序代码、GUI 资源以及缓存音视频数据的需求。
其次是驱动问题,许多 AI 产品采用的是偏重云端推理的轻量型处理器,这类处理器可能并不支持 eMMC 接口,这个时候又需要大容量存储,选择自带NAND Flash管理算法的SD NAND就很适合;而CS SD NAND 采用通用的 SDIO 接口,大多数处理器原生支持,无需额外驱动即可接入,极大简化了开发流程。
第三就是尺寸和焊接问题。CS SD NAND 最小尺寸6*8mm,LGA-8 的封装,方便焊接。适合做出体积精致、结构紧凑的终端设备,满足 AI 产品对轻薄化的需求。
2,AI产品对存储芯片的读取场景有什么特点?CS SD NAND如何满足这种需求?
大部分的AI产品,一般会配备一个外部显示设备用来互动,大部分是用屏幕,有些甚至用上了LED风扇屏。而AI产品的交互信息有几个特点:1)显示内容很随机,因为没办法预测云端下发来的显示内容是什么。这点不像播放视频,基本上视频流的数据是放在哪里的,给一个时间点就能知道要显示的内容。而AI产品,用户的交互信息完全随机;2)最终显示的GUI界面,也是由多个显示元素组成。由于硬件条件限制,而AI产品又需要做出更丰富的交互效果,通过不同显示元素组合成一个最终的显示画面是一个性价比高的方案。3)画面响应速度快。实际使用场景中,用户交互链条已经历数据上传下行、云端处理等,若显示加载慢,会严重影响体验。
这些特性决定了 AI 产品的读取场景具有明显的“高频随机读取”特征。显示内容随机,要读取的显示元素也随机(可能分布在存储芯片不同的区域),显示速度还要快。因此非常考验存储芯片的随机读取速度。而针对这个特征CS SD NAND专门做了优化,特别是二代产品,内部划分了更多RAM空间给到寻址程序,显著提升了随机读取性能,更好支撑实时 GUI 渲染需求。
3,AI产品对存储芯片的写入场景有什么特点?CS SD NAND又如何应对?
目前碰到的AI产品写入场景,比较多的是用来OTA升级。由于AI发展很快,也带来OTA升级频次相比普通电子产品要高。因此对存储产品的写入速度有较高要求,以避免升级过程干扰用户使用。针对这点CS SD NAND的写入速度都能满足。
但我们确实也碰到过客户反馈 OTA 速度异常缓慢,而我们这边的测试速度正常。经现场分析发现由于客户选择的RTOS 和指定的文件系统,对块设备的读写时间片分配不合理,导致了大量的时间消耗在中断和恢复等系统操作中。导致写入效率大幅下降。后面跟客户,Host端配合修改底层之后,恢复正常速度。
每一类终端产品对存储芯片都有不同的使用场景,需要host端,客户端,存储芯片端紧密配合,才能发挥最佳性能。不同客户的软硬件环境也不尽相同。CS SD NAND 已在多个 AI 硬件项目中成功应用。如果您在产品开发过程中遇到任何关于存储的问题,欢迎随时与我们联系,一起分析具体情况,共同找到最优解决方案。