image
20230807李娟萍/台北報導

搭AI熱 高效能記憶體得利

 全球總經環境不明朗,使記憶體復甦步調緩慢,PC、手機、傳統伺服器較2023年年初下修,但自第二季起,因AI熱潮興起,帶動高密度、高效能產品記憶體需求,而AI伺服器的增加,也使存儲內容成長。

 韓廠SK海力士(SK hynix)預期,AI伺服器市場中長期年複合成長率將達30%,整體伺服器需求(包含一般型伺服器)將會以年複合成長率7~9%成長,將成為記憶體的成長動能。

 SK海力士指出,與AI相關的記憶體需求顯著成長,已增加高密度DDR5、LPDDR5、HBM產品,使公司出貨量優於先前展望,產品單價(ASP)也比前一季度高。根據TrendForce調查顯示,2023年HBM(High Bandwidth Memory)市場主流為HBM2e,包含輝達(NVIDIA)A100/A800、超微(AMD)MI200以及多數CSPs(雲端服務業者),自研加速晶片皆以此規格設計。

 同時,為因應AI加速器晶片需求演進,各原廠再於2024年推出新產品HBM3e,預期HBM3與HBM3e將成為明年市場主流。

 若探究HBM各世代差異,主要以速度做細分,除了市場已知的HBM2e外,在進入HBM3世代時,產業出現較為混亂的名稱。

 TrendForce表示,目前市場所稱的HBM3,實際需細分為兩種速度討論,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。

 目前三大原廠HBM發展進度如下,兩大韓廠SK海力士、三星(Samsung)先從HBM3開發,代表產品為NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠再預計於2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發HBM3e。