image
20251226李娟萍/台北報導

專家:AI可能吞噬全球DRAM用量近2成

 AI競賽重心正從「算力」快速轉向「記憶體容量」與「推理成本」。隨著雲端推理需求暴增,高速記憶體(HBM、GDDR7)成為新主戰場,AI的「記憶體黑洞」效應也開始浮現。

 專家估計,2026年雲端高速記憶體用量將上看3EB(艾位元組),若再把高速記憶體對晶圓產能的「折算耗用」納入,AI等效吞噬的全球DRAM用量,可能逼近2成,勢必擠壓PC、手機與傳統伺服器等應用。

 業者指出,關鍵原因在於推理時需要保存大量「中間狀態資料」,使單一使用者或單一AI代理的記憶體需求倍數放大,並把HBM、GDDR7推向新的供需拐點。

 以「100萬token(模型運算與記憶的最小單位)」的長上下文情境為例,即便採用FP8(8-bit Floating Point)等較省容量的格式,推理過程仍可能需要約60GB高速DRAM保存中間狀態;若採用FP16,需求可能翻倍到100GB以上。相較目前常見的8K token約1GB,等同出現約60倍的跳增,形成AI擴張的隱形成本。

 以Google(Gemini)、AWS(Bedrock)與OpenAI(ChatGPT)等三大雲端平台推估,2026年推理端的「即時」記憶體需求合計約750PB(拍位元組),主要由HBM與GDDR7承擔。

 但實際落地還需備援與安全餘裕,硬體安裝量可能倍增,使有效需求推升至約1.5EB。再加上Meta、Apple的私有雲與中國大陸市場約800PB,及下一代模型訓練所需的檢查點與參數儲存約500PB,業界估,2026年雲端GPU高速記憶體總需求上看3.0EB。

 值得注意的是,3.0EB並不等於只消耗3.0EB的DRAM產能,高速記憶體更「吃晶圓」。業界常用折算方式估計:1GB HBM約等效消耗4GB標準DRAM產能、1GB GDDR7約等效1.7GB。

 以2026年全球DRAM產能約40EB推估,AI等效用量近2成;而DRAM產能年增僅約1成至1.5成,勢將排擠PC、手機與伺服器DDR5等標準型DRAM供給,缺貨與價格上行壓力同步升溫。

 在此趨勢下,DRAM產能將更傾向投入HBM、GDDR7等高附加價值產品,傳統DDR(含DDR4/DDR5)更容易被擠壓,市場也可能面臨更明顯的漲價壓力。