当前位置:首页 > 新闻中心

九游下载电脑版官网:国金电子樊志远|行业深度:AI驱动存储新周期

来源:九游下载电脑版官网    发布时间:2025-12-18 14:47:17      点击次数:1050

九游下载app:

  首先,我们复盘了前面几轮半导体周期,根据供需关系按照时间维度分为长中短三种周期:长周期(8-10年)——为需求周期、中周期(4-6年)——为产能周期、短周期(3-5个季度)——为库存周期,其中需求-产能-库存三种周期相互嵌套。存储器是半导体中仅次于逻辑的第二大细分市场,其历史表现与整个半导体周期走势一致,但波动性大于整个行业,大市场与强周期属性并存。通过复盘我们得知每轮存储大周期(08年、16年等)的开启都是由新兴技术推动产品升级和创新,进而催生新产品的总量、渗透率和存储器价值量的提升,推动存储器市场规模上升一个台阶,随着AI驱动需求提升,当下我们走在新一轮存储大周期的起点。

  AI驱动下,会出现存储大周期吗?1)我们正真看到大模型类型和机制转变正产生大量数据存储需求,首先是大模型中引入的思维链提示使 LLM 能将复杂问题分解为可操作步骤,复现类似人类的推理过程,明显提升模型的推理能力与问题解决技能,推理时长的增加也提升Token的消耗量,2025年几乎所有主流大模型都已内化思维链机制。同时根据希捷科技的数据,从文本向音视频的切换,背后的存储单位是从KB往TB乃至EB的增长。随着多模态模型渗透率的提升,存储需求有望逐步提升。2)其次,我们正真看到头部模型差距缩小,推理降本趋势明显。从ChatGPT3发布以来,大语言模型的推理的成本以指数级别下降,单美元可以生成的token数量持续增长。模型的推理成本快速降低,有望带动应用的爆发,也有望拉动存储需求的增长。3)最后,我们正真看到AI正在重新定义数据存储,KV Cache或将成为大模型推理优化的关键突破。KV Cache是Transformer架构中明显提升推理效率的关键性能优化机制,KV Cache显存占用随Token数量线性增长,同时KV Cache的优化效果也与文本长度正相关。当KV Cache成为未来数年提升大模型推理效率的关键一环,存储的需求也有望进一步提升。

  AI驱动存储需求快速攀升,存储原厂资本开支还未进入扩张周期。DRAM和NAND Flash原厂的重心正逐渐转变,从单纯扩产转向制程技术升级、高层数堆栈、混合键合以及HBM等高附加价值产品。根据TrendForce的数据,2025年DRAM的资本支出预计为537亿美元,预计在2026年进一步成长至613亿美元,同比增长约14%。2025年NAND Flash的资本支出预计为211亿美元,2026年预计小幅增长至222亿美元,同比增长约5%。当前行业无尘室空间已接近瓶颈,各大DRAM厂商中仅三星与SK hynix仍具备有限的扩线空间,即使资本开支上修,26年产能增量亦有限。而在NAND Flash领域,Kioxia/SanDisk相对扩产更为积极,其他原厂则继续专注HBM及DRAM。

  我们建议持续着重关注存储器库存、价格数据及AI算力提升对存储芯片的需求拉动。

  2.3 AI正在重新定义数据存储,KV Cache或将成为大模型推理优化的关键突破

  半导体行业是一个分工较为精细的行业,产业链自下而上的环节分别为:计算机显示终端-渠道及分销商-IC设计公司(Fabless)/IDM-晶圆代工厂(Fab)/封测厂-半导体设备/材料,这么长的链条导致在终端需求发生明显的变化时,易发生上游不同环节反应不及时,因此也导致了半导体行业呈较为显著的周期性。但其周期性背后的根本归因是:供需关系。

  存储板块作为半导体最大的细致划分领域之一,存储的周期和半导体板块的周期既有相似的地方,也具有不一样的特色,在复盘存储周期之前,我们先复盘前面几轮半导体周期,根据供需关系按照时间维度分为长中短三种周期:长周期(8-10年)——为需求周期、中周期(4-6年)——为产能周期、短周期(3-5个季度)——为库存周期,其中需求-产能-库存三种周期相互嵌套,一同推动半导体行业波浪式前进。

  我们复盘过去二十多年以来半导体行业的发展历史发现,每一次大的技术革命都能驱动半导体维持将近十年的景气度,其核心逻辑是:底层的新技术催生新产品的总量、渗透率和单品半导体价值量的提升。例如:

  2001-2010年前后:我们叫做PC时代,自互联网泡沫破灭之后,PC终端迅速兴起,随之而来的功能机、笔记本等陆续出现,根据Gartner数据全球PC出货量,2003年单季度为4000万部左右,到2011年前后,单季度出货量达到约9000万部。随着超薄光驱、TFT液晶屏、锂电池以及无线通讯技术等的发展促使笔记本电脑向更轻薄的方向发展,其内置CPU芯片的厚度、面积均开始一下子就下降,含硅量持续提升。根据WSTS数据,全球半导体销售额从2001年1390亿美元提升至2010年的2989亿美元,10年复合增速达9%。

  2010-2021年,2010年前后,苹果开启了智能手机时代,从3G手机到4G、5G手机,全球智能手机出货量从2012Q3的1.86亿部,到2016年平均每季度超过4亿部。以及由之而来的TWS耳机、智能家居AIOT终端和云计算等新兴领域迅速崛起,也推动了算力CPU、存储器、SoC、电源管理等芯片的需求。全球半导体销售额也从2011年的2995.2亿美元成长到2021年的5558.9亿美元,10年复合增速为7%。

  2022年全球半导体行情周期下行,行业处于展望悲观中。随之而来ChatGPT于2023年初横空出世,为半导体行业前行带来曙光。AI驱动基础设施建设,包括算力芯片、存储器、交换机、服务器、PCB等全产业链需求回暖,2023年下半年下游终端开启补库周期,2025年9月全球半导体销售额达610.97亿元,单月销售额创历史新高。

  回顾1986年以来半导体的发展,不难发现半导体行业每4-6年经历一轮完整的波峰-波谷-波峰的轮转。我们大家都认为其背后核心为晶圆厂、封测厂的资本开支与产能扩张进度的驱动,称之为“产能周期”即在供给驱动下的半导体行业重复演绎着复苏—扩张—高峰—衰退—复苏—…的过程。

  我们将产能周期分为四个阶段:复苏-扩张-顶峰-衰退,四个阶段依次交替轮转。

  复苏:此阶段,经历前面的衰退,各环节供应商较为谨慎,表现为全产业链条库存水位较低。但随着下游需求开始改善,计算机显示终端开始拉货,传导到渠道端、芯片设计企业,其订单开始增加,出现被动去库存现象,同时上游晶圆厂小幅增加资本开支。

  扩张:随着终端需求持续旺盛,渠道端及IC设计公司芯片出现供不应求、芯片交期延长,导致芯片价格持续上涨,出现主动补库存现象,同时上游晶圆厂稼动率持续满产,开始加大资本开支。

  顶峰:芯片价格是一个明确的讯号,由于晶圆厂从计划到投产、量产基本上需要1-2年的周期,在产能紧缺的情况下,晶圆厂提高代工价格逐步推动芯片价格持续上涨,导致部分环节厂商开始囤货(以期转差价),层层叠加推高终端产品生产所带来的成本,压缩终端厂商利润,导致部分厂商减少订单,跟着时间推移,芯片厂商库存开始积压,出现被动补库存现象。

  衰退:随着终端订单持续减少,芯片厂商库存水位持续抬升(伴随囤货的厂商甩货),而同时部分晶圆厂新产能开始投产,进一步增加供给,导致芯片价格下杀,行业进入主动去库存阶段,晶圆厂大幅下调资本开支计划。随着行业杀价、甩库、呈现萧条景象,各环节厂商给予谨慎甚至悲观预期,但是新的复苏已经走在路上…。

  由于半导体产业链条较长,各环节厂商大多专注一部分,很难做到纵观整条产业链的供需变化,因此导致在一轮周期中全行业能保持供需平衡的时间很短,而供需失衡是常态,其最典型的一个指标就是库存水位变化。因此,我们大家可以通过观察库存水位作为判断半导体库存周期变化的一个前瞻性指标,库存周期主要体现为:被动去库存(复苏)—主动补库存(扩张)—被动补库存(顶峰)—主动去库存(衰退)—被动去库存(复苏)…。

  我们统计全球半导体平均库存月数能够正常的看到,在2021年之前库存周期较为平稳,每3-5个季度经历一次波峰和波谷(当然这样的一个过程中也受季节性因素影响),在2021年宏观环境变化及产业链供需错配导致行业出现大缺货,扰乱了正常的库存周期,整体库存周期拉长到3年,到2023Q4完结了这一轮的库存周期。从24年以来的数据观察,我们预计目前半导体行业已恢复到正常的库存周期节奏,当然数据还要进一步观察。

  渠道端库存,我们分别观察安富利和艾睿电子等全球头部的半导体分销商的库存情况,库存周转天数变化趋势与芯片厂商库存变化趋势相似,也是每3-5个季度经历起伏。

  存储器作为半导体中仅次于逻辑的第二大细分市场,其历史表现与整个半导体周期走势一致,但波动性大于整个行业。根据世界半导体贸易统计组织(WSTS)的数据,2024年全球半导体的市场规模为5395.1亿美元,同比增长26%。其中,存储器细分赛道市场规模达1655.2亿,同比增加79%,占比约为31%。从历史上看,半导体以及存储细分赛道呈现出趋同的周期性,但存储板块在某些特定的程度上放大了行业整体波动性。2000年以来,全球存储行业已经历多轮周期,每一轮完整周期大概会历时3-5年。随着AI驱动需求提升,当下我们走在新一轮存储大周期的起点。

  颗粒价格与存储价格也息息相关。当行业开始上行周期,下游需求走高,行业新增产能有限的情况下,市场格局逐渐从供过于求走向供不应求,原厂会有意识的去推高现货价格,以此抬升公司纯收入能力。当新增产能被大幅度开出,行业重新走向供过于求,渠道和终端库存开始走高,现货价格开始下跌。原厂会通过缩减资本开支以及降低稼动率的方式减少晶圆产出,同时等待下游库存去化以及新需求的出现,周而复始形成存储周期。

  每轮存储周期亦有不同,需求驱动的周期通常持续性更长及弹性更大。2008年移动网络周期和2016年4G手机周期皆充分印证了这一点。移动互联网爆发催生高清音视频等应用,用户侧对手机存储的需求从最初的16GB,逐步向 64GB、128GB 乃至更大容量升级。这种增长并非短期技术迭代推动,而是随应用场景深化持续释放持续提升的过程。2023年AI时代开始落地,我们同样看好模型和应用落地后对存储需求长期且大量的拉动。

  本轮周期的重要驱动因子是AI,是需求端爆发驱动的大周期。历史上我们正真看到过2008年智能手机时代的存储大周期,但是AI作为工业革命后最重要的产业革命,需求的上限有多高可能难以预测,但我们大家都希望通过研究AI技术与产品的变化,探讨未来在AI驱动下,对存储需求的趋势与确定性。

  思维链(CoT)较早是由DeepMind在2022年发表的论文《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》中提出的。随后在2024年9月,OpenAI发布的o1模型首次将思维链作为核心技术亮点推出,思维链提示使 LLM 能将复杂问题分解为可操作步骤,复现类似人类的推理过程。该方法对需多步骤解决的任务 (如数学应用题、符号推理、常识推理) 效果非常明显。通过引导模型输出中间推理步骤,思维链提示可在过程中及时识别并修正错误,最终提升答案准确性。2025年所有主流大模型都已内化思维链机制,如GPT - 4 Turbo、Claude 3.7 Sonnet、文心一言4.0、Gemini 2.5 Pro等。同时,思维链出现了多种形式,如明示型思维链、树状思维链、反思型思维链等,还衍生出了一致性思维链、自动化思维链、外部验证思维链等高级技巧,逐步提升了模型的推理能力和可靠性。

  思维链提示通过强化模型的推理能力与问题解决技能,明显提升 LLM 的性能。该技术通过结构化推理流程引导模型生成更精准且可靠的输出,非常适合于复杂任务。思维链与训练阶段的扩展定律类似,能够最终靠更长时间的“思考”来持续优化输出质量,呈现指数级增长特性,且似乎不存在性能上限。但是引入思维链以及思考时间的增加,也会同步提升Tokens的消耗量。

  模型的变化以及tokens消耗量增加,正在产生大量数据的需求。从23年以来,大模型本身从专注文字交互的大语言模型,逐渐升级到融合文本、图像、音视频的多模态模型,升级的背后对存储器的容量、带宽、低延迟提出更加高的要求。同时,随着 Sora2 这类视频生成模型的普及与迭代,存储需求将进一步迎来指数级增长。根据希捷科技的数据,从文本向音视频的切换,背后的存储单位是从KB往TB乃至EB的增长。随着多模态渗透率的提升乃至未来全模态模型的落地,我们看好存储需求进一步提升。

  从chatgpt3发布以来,大语言模型的推理的成本以指数级别下降,单美元可以生成的token数量持续增长。同时模型的能力也持续增加。相较于最早的chatgpt3,目前的主流模型都能够最终靠更低的推理成本达到更高的智能水平。在2021年1月,GPT3是唯一能够达到MMLU42分的大语言模型,当时百万token的成本在60美元,截至2024年11月,由together.ai提供的Llama3.2B可以同样达到MMLU42分的水平,但百万token的成本以及降低到0.06美元。而能够达到MMLU83分的大语言模型中,Llama3.170B截至2024年11月百万token的成本已经小于1美元。根据A16z Infrastructure测算,推理成本每年降低幅度约10倍。

  另外我们注意到,目前模型的能力提升,除了模型的预训练以外,推理的算法升级也不断落地,通过包括强化学习、MOE等方法提升模型推理能力。我们大家都认为:模型的推理成本快速降低,有望带动应用的爆发,而应用爆发将带动更多的推理算力需求,同时推理算法的迭代也带动更多算力需求。

  2.3 AI正在重新定义数据存储,KV Cache或将成为大模型推理优化的关键突破

  随着AI大模型及高性能计算(HPC)的加快速度进行发展,数据规模持续攀升,带动数据存储及处理资源需求同步增长。面向不同业务场景,业内通常按照访问频次与业务重要性将数据划分为“热数据—温数据—冷数据”三个层级,以优化数据管理与资源配置。1)热数据(Hot Data):指访问频率高、对核心业务实时性要求强的数据。此类数据需要在低时延、高性能介质中存放,典型载体包括 DRAM、NVMe SSD等;2)温数据(Warm Data):指访问频次适中、业务价值较为重要的数据。相比热数据,对实时性要求略低,但需保证在合理时间内可靠访问,常使用成本相比来说较低、容量更大的磁盘阵列等设备存储;3)冷数据(Cold Data):指访问频率低、价值时效性弱的数据,多用于长期留存及合规备份。其访问需求不高,可存放于磁带库等更低成本、超大容量的介质中。基于数据“冷热分层”的特性,公司能够构建差异化存储策略,实现对性能、成本与可靠性的最优平衡,从而大大降低整体存储成本并提升数据访问效率。

  从核心到边缘到终端,大家不仅面对大数据带来的变化,同时快数据也带来新的变化。新基建需要新存储,新存储的核心自然会聚焦在创新存储架构上,因为基础架构慢慢的变成了了用户的应用升级与业务转型的基石。新基建促进产业升级与转型,新存储促进创新架构与时俱进。但是,这一切,都根于企业的应用多元化。不同的应用诞生不同的数据类型,不同的数据类型需要不同的存储来匹配。以往业内大体上分为冷存储和热存储,然而用户面临不可阻挡的企业数字化转型趋势,这种粗放式存储设备和架构规划要适应各方面的需求,事实上不可能。西部数据把最中心的存储分成五层:1)极热存储,需要高频读写,拥有极高IOPS和带宽需求。对应用户的典型应用环境如:面向交易领域的OLTP(On-Line Transaction Processing联机事务处理)、面向智能视频监控领域的DSP(Digital Signal Processor数字信号处理器)、无人驾驶口等。一般都会采用DRAM方案;2)热存储,需要数据频繁读写,持续低延时,有着高IOPS、高带宽应用需求。面向用户的数据库领域典型应用可见于OLTP、DSP、无人驾驶等方面。通常用高性能SSD方案;3)温存储,需要读取较频繁,有较高性能IOPS,带宽要求,性能峰值并不特别需要持续维持在高性能的状态。其典型应用如:OLAP(联机分析处理On-line Analytical Processing)、AI日训练,以及传统企业应用。通常用主流SSD方案;4)冷存储,需要少量写入,多次读取,其数据与温数据有相关性。主要面向备份,典型应用如:大数据分析、AI训练,以及包括一些在线交易的用户的画像分析。通常用CMR HDD方案;5)极冷存储,需要一次写入,极少读取,适合长期持久归档存储的数据,即一次写入后一年之内可能读取的次数都很少,但又需要长期保存。其典型应用场景包括:金融的交易数据、医疗档案、广电与监控行业的一些视频资料、在线游戏直播的一些视频数据等。通常用SMR HDD方案。

  全球数据规模持续呈指数级扩张,行业已全方面进入Zettabyte(ZB)级时代。在以AI(AI)、深度学习(DL)和机器学习(ML)为代表的新一代技术体系中,数据已成为驱动模型演进与创新的核心生产要素。然而,不同应用场景对存储能力的要求差异显著,单一架构难以满足AI全流程的数据处理需求。具体来看,AI相关工作负载在容量、吞吐量、延迟及IOPS等关键指标上呈现明显分层特征:大规模训练阶段强调超高容量与高吞吐的数据读写;模型微调与特征工程阶段兼顾中等延迟与高并发访问能力;推理与在线服务阶段则更加依赖低延迟与高IOPS的性能表现。数据分层管理与多级存储体系成为支撑AI工作负载的关键基础设施。

  KV Cache,全称Key-Value Cache(键值缓存),是Transformer架构中一种关键的性能优化机制。从本质上讲,它是一种空间换时间的策略,通过缓存已计算的Key和Value矩阵,避免在自回归生成过程中重复计算,从而明显提升推理效率。根据微软亚洲研究院的最新研究,在处理100万token的长文本时,单张A100 GPU在大多数情况下要超过30分钟的推理时间,而KV Cache技术的引入,能够将这一时间缩短2-3倍。

  KV Cache在内存中的组织方式对大模型推理性能具有关键影响。不同模型架构(如 Transformer、MoE等)虽在具体实现上存在一定的差异,但总体目标均指向在有限的显存/内存预算下最大化读写效率与访问吞吐。当前主流 KV Cache 实现普遍围绕“存储效率最优化”展开,主要是采用以下结构化管理与压缩策略:1)预分配策略提升访问一致性,依据模型的最大序列长度预先分配连续内存区,能够减少运行时的内存碎片,并明显降低动态分配带来的开销,有助于提升推理链路的稳定性;2)动态扩容机制增强灵活性,在推理过程中,当实际序列长度超出初始阈值时,系统可自动扩展缓存容量,以适配长文本或复杂对话场景,提高实用性与鲁棒性;3)内存池管理降低频繁分配成本,通过引入统一的内存池(memory pool),可避免频繁的 malloc/free操作,减少系统级开销,改善高并发情形下的整体吞吐效率;4)数据压缩技术大大降低存储占用,借助量化(如FP8、INT8、甚至 INT4)等技术,对缓存精度进行压缩,在保持模型效果可接受的前提下明显降低显存消耗,从而提升多并发推理场景下的部署密度。KV Cache的组织与优化已成为大模型推理系统的重要工程化环节。其技术路径的持续演进,有望进一步改善算力利用效率,并推动推理成本结构优化。

  KV Cache的效果很大程度上取决于缓存命中率。在不同的应用场景下,命中率表现差异显著。针对短文本的推理,KV Cache带来20%的性能提升,中等长度推理性能提升达到62%,长文本推理的性能提升高达65%,而超长文本的推理性能提升则达到了66%。KV Cache针对性能提升的规律说明,KV Cache在处理越长的文本时,优化效果越明显。这正好解决了长上下文应用中最迫切的性能需求。

  随着大模型技术快速迭代、推理场景持续扩展,支撑其高效运行的 KV Cache亦呈现加速演进的趋势。未来KV Cache技术将向更智能化、自动化方向演进,以适配不同模型规模与业务负载需求,大多数表现为:1)自适应压缩能力增强,系统将基于内容重要性、访问频度与资源占用情况,动态调整压缩策略,以兼顾推理性能与算力成本,实现更精细化的缓存管理;2)预测性缓存能力提升,依托用户行为模式与上下文语义的学习,系统可实现提前预取(prefetch),在推理链路中逐步降低延迟,提高端到端吞吐效率;3)跨模态缓存,随着多模态模型成为主流,KV Cache有望在文本、图像、音频等不同模态间实现统一的缓存编排机制,提高资源利用率并简化模型部署。

  在硬件侧,KV Cache的优化方向亦日趋明确,围绕KV Cache的读写、压缩、重排等操作,预计将出现更多专用硬件加速模块,以减少通用GPU负载、提升整体能效。针对内存层级结构优化,未来架构将逐步优化GPU HBM、CPU内存及SSD之间的层级协同,实现更高效的冷/温/热数据的调度,缓解大模型推理的内存瓶颈。

  目前随着大模型应用的普及和上下文窗口的继续扩展,KV Cache技术的重要性将进一步凸显。无论是ChatGPT的流畅对话体验,还是Claude的长文档解决能力,都需要KV Cache的技术支撑。未来KV Cache将在智能化、硬件加速、边缘部署等方向持续演进,为更广泛的AI应用提供强有力的技术支撑。智能化与硬件化趋势明确,KV Cache有望在未来数年持续提升大模型推理效率并改善算力成本结构。

  NAND Flash和DRAM为存储器行业的主流产品。根据YOLE的数据,从2024年全球存储市场按技术类型的收入结构来看,DRAM(含HBM)与NAND占比分别为57%与40%,合计达到 97%,产业格局高度集中。各类存储技术在成熟度、成本结构与应用定位上差异显著,行业分层格局较为清晰。DRAM受益于AI推理、HPC及服务器需求量开始上涨,目前仍是高性能计算场景的核心配置;NAND则大范围的应用于移动终端、企业级SSD与云数据中心,规模效应明显,成本下降路径清晰。NOR Flash应用场景稳定但市场占比仅为1.7%,增长空间存在限制。EEPROM、(NV)SRAM、FRAM聚焦低功耗与高可靠性的专业化市场,这类产品生命周期长、技术迭代慢,呈现“小而稳”的市场格局。新兴非易失性存储(NVM)技术优势显著但量产受限。MRAM、RRAM等新型NVM在读写速度、功耗及耐久性方面具备潜在优势,但受制于良率、制造成本等瓶颈,尚未跨越从研发到规模化量产的关键门槛。

  2025年,主要NAND Flash厂商已开始通过产能调整应对市场行情报价波动。根据《朝鲜日报》,三星电子、SK海力士及铠侠在2024年价格长期维持在成本水平后,已积极采取一定的措施推动价格持续上涨。根据Omdia的数据,三星电子2024年NAND晶圆产量为507万片,2025年的产能目标下调至约472万片,下降约7%;铠侠产量由去年的480万片调整至469万片。Omdia预计,三星电子及铠侠的减产趋势将持续至2025年。SK海力士及美光亦采取保守产能策略,以期从价格回升中获益。其中,美光的新加坡Fab 7工厂产量维持在约30万片的相对低位,供应策略同样偏保守。主要NAND Flash厂商通过控制产量和调整供应节奏,有望在NAND Flash市场行情报价回升周期中实现利润稳定,同时为未来产能布局与价格谈判提供策略空间。

  2025年HBM市场占有率竞争将进一步加剧,根据TrendForce的测算,全球DRAM产能由2024年底的约180万片/月增长至2025年底的约192万片/月。其中TSV技术在全球DRAM产能中的渗透率将由2024年底的约15%提升至2025年底的约19%,显示高带宽存储需求持续增长。

  自2022年以来,全球NAND产业的技术演进持续围绕“更高层数(L)”与“更高存储密度”两大方向加速推进。三星、SK海力士、美光等国际头部厂商正不断向更高层数的TLC、QLC架构演进,通过堆叠层数提升、结构优化与工艺迭代,实现单位面积存储密度的持续提升与成本曲线的进一步下探。铠侠/西部数据及Solidigm同步推进先进节点,行业预计其主流产品将在2024年进入218层及以上的量产阶段。相比之下,国内长江存储的层数进展虽仍低于国际领先水平,但已处于行业中游梯队,技术代际迭代速度明显加快,未来追赶空间明确。

  本轮NAND Flash行业需求强劲上行,核心驱动力来自AI应用对高容量存储需求的快速攀升,叠加HDD供应紧缩,促使云端服务供应商(CSP)加速向NAND体系转单,形成明显的结构性缺口,而非短期行情波动。与此同时,过去数年行业多次经历景气反转,使得主要厂商在资本支出与扩产节奏上更趋审慎。进入2026年后,全球NAND厂商资本开支重点将转向先进制程迭代与Hybrid Bonding技术导入,而非新产能扩张,使得行业位元供应增幅受到显著限制。TrendForce预测NAND市场供给紧缩将延续至26年全年。

  随着存储器平均销售价格(ASP)持续提升,供应商获利也有所增加,DRAM与NAND Flash后续的资本支出将会持续上涨,但对于2026年的位元产出成长的助力有限。DRAM和NAND Flash产业的投资重心正逐渐转变,从单纯地扩充产能转向制程技术升级、高层数堆栈、混合键合以及HBM等高附加价值产品。根据TrendForce的数据,DRAM产业的资本支出在2025年预计将达到537亿美元,预计在2026年进一步成长至613亿美元,同比增长约14%。NAND Flash部分,资本支出在2025年预计为211亿美元,2026年预计小幅增长至222亿美元,同比增长约5%。

  从资本开支来看,美光仍是DRAM领域扩产最积极的厂商,但重心仍倾向于HBM。根据TrendForce的数据,美光2026年资本支出预计达到135亿美元(YoY +23%),重点投向1γ制程渗透及TSV设备建置;SK hynix 的扩产力度同样显著,2026年资本支出预计为205亿美元(YoY +17%),大多数都用在M15X的HBM4产能扩张;三星预计投入200亿美元(YoY +11%),用于HBM的1C制程导入及P4L产能小幅提升。当前行业无尘室空间已接近瓶颈,各大DRAM厂商中,仅三星与SK hynix仍具备有限的扩线新厂完工后才有新增产出,最早2027年才能贡献产能。因此,即便后续资本支出上修,对2026年的产能拉动极为有限。

  在NAND Flash 领域,Kioxia/SanDisk因无DRAM业务,被视为最积极扩产的厂商。两家公司2026年资本支出预计45亿美元(YoY +41%),将加速BiCS8的量产,并投入BiCS9 的研发。美光的NAND规划则以小幅扩张产能、推进G9制程及强化企业级SSD布局为主,2026年NAND资本支出预计同比增长63%。三星与SK hynix/Solidigm 则在NAND端采取更保守的扩产策略,并将投资重心进一步向HBM与 DRAM转移。

  我们建议持续着重关注存储器库存、价格数据及AI算力提升对存储芯片的需求拉动,建议关注如下三个方向:

  3) 存储配套及其他芯片:普冉股份、澜起科技、聚辰股份、东芯股份、北京君正、朗科科技、恒烁股份等

  需求低于预期:目前AI发展拉动存储器需求持续提升,但不排除AI Capex下滑的风险,因此导致需求下滑。

  存储器价格下降:到目前为止,存储的价格还在持续上涨,虽然我们预计后续上涨趋势有望持续,但也不排除持续下跌的情况。

  存储器价格持续上涨挤压其他领域需求:存储器价格持续上涨已经显现出对AI外其他领域,例如消费电子等市场的需求的挤压。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  叙利亚前总统一家流亡俄罗斯近况曝光:平静孤独,但衣食上乘,常前往阿联酋度假,希望迁往阿联酋

  西药见效快!中国三大运营商为美国解决诈骗电线指数跌幅迅速扩大至1.6%

  全新卡罗拉到店,“撞脸”凯美瑞/尺寸升级,配2.0L燃油/1.8L双擎

  教育部:减少中小学日常考试测试频次,淡化分数竞争 缓解学生考试焦虑#考试 #学生 #教育

©2022 九游下载电脑版官网 版权所有 All Rights Reserved.  备案号:鲁ICP备2021034369号-1