AI NB成長動能看俏,TrendForce預估,隨AI NB滲透率自2024年的1%,提升至2025年的20.4%,且AI NB皆搭載16GB以上DRAM,將帶動整體平均搭載容量成長0.8GB,增幅至少為7%。
2024年大型雲端廠商(CSPs),如Microsoft、Google、Meta、AWS等廠商,為採購高階主打訓練用AI伺服務器的主力客群,以作為LLM及AI建模基礎。
CSPs逐步完成建置一定數量AI訓練用伺服器基礎設施後,將積極從雲端往邊緣AI拓展,包含發展較為小型LLM模型,以及建置邊緣AI伺服器,促使其企業客戶在各製造、金融、醫療、商務等各領域應用落地。
因AI PC或NB在電腦設備基本架構組成與AI伺服器較為相近,具有一定程度運算能力、可運行較小型LLM及GenAI等運用,有望成為CSPs橋接雲端AI基礎設施及邊緣AI小型訓練或推論應用的最後一哩路。
在晶片端,英特爾的Lunar Lake及超微的Strix Point,在此次COMPUTEX展首次發布SoC,皆符合AI PC標準,Lunar Lake及Strix Point配套的PC機種,將分別於2024年第四季及2024年第三季上市,成市場關注焦點。
在品牌端,華碩及宏碁繼5月推出搭載高通 Snapdragon X Elite的機種後,也在COMPUTEX期間,推出搭載Lunar Lake、Strix Point、Snapdragon X Elite的機種,MSI僅推出搭載Lunar Lake、Strix Point;新款AI PC建議售價落於1,399~1,899美元區間。
TrendForce預估,NB DRAM平均搭載容量,將自2023年的10.5GB年增12%,至2024年的11.8GB。
隨著AI應用完善、能處理複雜任務、提供更好的用戶體驗並提高生產力,將帶動消費者對於更智能、更高效的終端設備需求迅速增長,2025年AI NB滲透率將快速成長至20.4%的水位,亦將帶動DRAM搭載容量的成長。
TrendForce認為,AI NB除了帶動NB DRAM平均搭載容量提升外,亦將帶動省電、高頻率記憶體的需求,在這情況下,相較於DDR,LPDDR更能凸顯其優勢,因而加速LPDDR替代DDR的趨勢。
對原本追求可擴展性的DDR、SO-DIMM方案而言,轉換至同屬模組的LPDDR、LPCAMM方案,亦為LPDDR on board之外的選項之一。